* In deiner Position entwickelst und optimierst du ETL/ELT-Pipelines mit Azure Data Factory, Azure Databricks oder Synapse Pipelines, um Daten effizient und skalierbar zu verarbeiten.
* Du kümmerst dich um die Integration verschiedenster Datenquellen – von On-Premise über Cloud und APIs bis hin zu Streaming-Daten – in unseren Data Lake.
* Wann immer es um die Entwicklung von Datenverarbeitungsprozessen geht, programmierst du in Python, PySpark oder Scala und stellst performante Lösungen sicher.
* Du unterstützt durch die Automatisierung von Deployment- und Monitoring-Prozessen und sorgst damit für stabile und nachvollziehbare Abläufe.
* Nicht zuletzt bearbeitest du Supportanfragen und trägst zur kontinuierlichen Verbesserung der Datenplattform und Services bei.
* Abgeschlossene Ausbildung, z. B. zum Fachinformatiker, oder ein Studium in Informatik, Wirtschaftsinformatik oder Betriebswirtschaftslehre mit Kenntnissen in Data Lake und Bereich Business Intelligence
* Mehrjährige Berufserfahrung im Bereich Data Engineering, idealerweise mit Fokus auf Microsoft Azure
* Sehr gute Programmierkenntnisse in Python und SQL, idealerweise auch Spark (PySpark/Scala)
* Verständnis für Geschäftsprozesse, Datenanalyse und Reporting in verschiedenen Branchen und Funktionen
* Persönlich gefallen uns besonders deine analytische und strukturierte sowie deine kundenorientierte und teamfähige Arbeitsweise.