Das sind deine Aufgaben
- Aufbau, Weiterentwicklung und Betrieb unserer Data Lakehouse Umgebung auf Basis von Azure und Databricks
- Entwicklung und Optimierung von ETL/ELT-Prozessen mit Hilfe von SQL, Python (Spark) und Azure Data Factory
- Aufbau und Pflege von Datenmodellen sowie Datamarts für Self-Service Analytics in PowerBI
- Enge Zusammenarbeit mit Data Professionals und Fachbereichen zur Sicherstellung von Datenqualität und -konsistenz
- Implementierung von Data Governance- und Metadaten-Management-Lösungen
- Kollaborative Entwicklung unter Nutzung von GIT für die Versionskontrolle
- Unterstützung bei Reporting- und Analyseanforderungen
|
Das sind deine Aufgaben
- Pflege und Weiterentwicklung des Data-Governance-Frameworks auf Basis der Daten-Strategie des Konzerns
- Förderung einer datengetriebenen Unternehmenskultur durch Kommunikation, Schulungen und Change-Management
- Implementierung von Prozessen für Datenklassifizierung, Metadatenmanagement und Datenkataloge
- Erstellen und Einführung von Datenrichtlinien, Standards und Prozessen
- Optimierung und Weiterentwicklung der relevanten Prozesse und Businessregeln
- Unterstützung der Rollen im Datenmanagement (Data Owner, weitere Data Stewards)
- Überwachung von KPIs zur Messung der Datenqualität
- Durchführung von Data Cleansing Aktivitäten
- Enge Abstimmung mit Data Community, Fachbereichen, IT und Management
|
Das sind Ihre Aufgaben
- Konzeption und Entwicklung von System- und Datenintegrationslösungen, z.B. mit REST Schnittstellen oder Messaging und Streaming Technologien wie Kafka
- Design und Verwaltung von API-Gateways (z.B. mit Tyk.IO)
- Mitgestaltung einer modernen, eventbasierten IT-Systemlandschaftsarchitektur
- Qualitätssicherung durch die Entwicklung und Nutzung moderner CI/CD Pipelines
- Zusammenarbeit mit Fachbereichen zur Analyse und Umsetzung technischer Anforderungen
- Sicherstellung von Datenqualität und nachhaltiger Datenhaltung
|