Unser Unternehmen ist ein innovatives Unternehmen, das sich auf die Modernisierung und Weiterentwicklung seiner Datenlandschaft konzentriert. In diesem Zusammenhang suchen wir einen Cloud Data Integration Specialist, der eine zentrale Rolle im Bereich der Datenintegration übernimmt.
Aufgaben:
* Entwicklung und Betrieb von ELT-Prozessen: Der Cloud Data Integration Specialist entwickelt, konzipiert und betreibt robuste und skalierbare ELT-Strecken auf Basis von Microsoft Fabric (Pipelines, Notebooks etc.) und Python (PySpark).
* Datenmodellierung nach Data Vault: Der Cloud Data Integration Specialist modelliert Daten nach dem Data-Vault-Ansatz und gestaltet aktiv den Aufbau sowie die Weiterentwicklung unseres zentralen Datenmodells. Dabei stellt er sicher, dass unsere Datenarchitektur flexibel, transparent und zukunftssicher bleibt.
* Echtzeitdatenintegration: Der Cloud Data Integration Specialist ist verantwortlich für die Anbindung und Integration von Echtzeitdatenströmen über Apache Kafka (Confluent). Er entwickelt Lösungen, um Streaming-Daten effizient in unsere Data Transit Zone und das nachgelagerte Data-Lakehouse zu integrieren und sicherzustellen, dass diese Daten für Analyse- und Reportingzwecke zeitnah zur Verfügung stehen.
* Automatisierung und Standardisierung: Der Cloud Data Integration Specialist arbeitet kontinuierlich an der Automatisierung und Standardisierung unserer Integrationsprozesse, um Effizienz, Qualität und Wartbarkeit zu steigern.
* Qualitätssicherung und Monitoring: Der Cloud Data Integration Specialist implementiert Monitoring- und Qualitätssicherungsmechanismen, um die Zuverlässigkeit und Nachvollziehbarkeit unserer Datenintegrationsprozesse sicherzustellen.
Anforderungen:
* Abgeschlossene Ausbildung / Studium im Bereich (Wirtschafts-)Informatik, Mathematik, Naturwissenschaften oder eine vergleichbare Qualifikation.
* Praktische Erfahrung in der Datenintegration, idealerweise im Cloud-Umfeld (z. B. Microsoft Fabric, Azure, AWS, GCP).
* Kenntnisse in der Entwicklung von ELT-Prozessen – Erfahrung mit Microsoft Fabric und Python sind ein Plus.
* Idealere Erfahrung in der Datenmodellierung nach dem Data-Vault-Ansatz.
* Erfahrung in der Integration und Verarbeitung von Echtzeitdaten – idealerweise mit Apache Kafka (Confluent).
Vorteile:
* Urlaubs- und Weihnachtsgeld, vermögenswirksame Leistungen.
* Möglichkeit, aktiv an der Modernisierung und dem Aufbau einer zukunftsweisenden Datenplattform mitzuwirken.
* Vielfältige Möglichkeiten zur fachlichen und persönlichen Weiterentwicklung, z. B. durch Trainings, Zertifizierungen und den Austausch mit Experten.