 
        
        Beschreibung des Auftrags
Wir suchen einen Data Engineer, der sich auf die Architektur von Datenplattformen spezialisiert hat. In diesem Bereich unterstützt er uns bei der Erstellung eines neuen Produkts innerhalb unserer Informationsplattform (iPEN). Das Produkt soll eine Kombination aus Standardreporting und KI-basiertem Process Reporting & Mining sein.
Zu den Aufgaben des Data Engineers gehören:
 * Datenintegration: Der Data Engineer unterstützt alle Datenintegrationsaktivitäten für das neue Produkt innerhalb der bestehenden iPEN-Plattform (Databricks, Unity Catalog).
 * Quellsystemanbindung: Er gestaltet den Prozess zur Anbindung der Quellsysteme und begleitet die Transformation in das gemeinsame Datenmodell.
 * Enablement: Der Data Engineer befähigt die Data Engineers der Netzbetreiber, aktiv zur ETL-Codebasis beizutragen und fördert die Wiederverwendung von Code.
 * Pipeline-Entwicklung: Er implementiert ETL-Pipelines zur Datenextraktion und sorgt für deren Effizienz.
 * Betriebssicherheit: Der Data Engineer verantwortet den stabilen und zuverlässigen Betrieb der Datenpipelines.
Anforderungen an den Data Engineer:
 * Azure-Erfahrung: Erfahrungen im Microsoft Azure Technologie-Stack, insbesondere in Azure Data Factory und Azure Databricks.
 * Entwicklungs-Kompetenz: Erfahrungen mit Python, Scala, SQL, Spark und Databricks in cloud-nativen Projekten.
 * Pipeline-Know-how: Erfahrungen im Management von Datenextraktionspipelines.
 * Analytisches Denken: Fähigkeit, strukturiert und analytisch zu denken und komplexe Aufgaben souverän zu organisieren.
 * Kommunikation: Fähigkeit, klar zu kommunizieren, überzeugende Konzepte zu erstellen und fließend Deutsch und Englisch zu sprechen.
Wir sind für Menschen mit Behinderung offen und möchten ein faires Bewerbungsverfahren ermöglichen.