* Durchführung von Aufgaben des fachlichen Betriebs: CVEs lösen, Daten nach prozessieren und Stakeholderkommunikation
* Weiterentwicklung von Datenprodukten (Data Engineering) mit SQL und Spark sowie die Identifikation von Optimierungspotentialen hinsichtlich time-to-market und Betriebskosten
* Sowohl Aufbau und Betrieb von Datenpipelines für Streaming (Kafka/Event Hubs) und Batch (ADLS/S3) als auch Datenaufbereitung in Microsoft Fabric Lakehouses mit Scala Spark und Delta
* Umsetzung von Datenprodukten end-to-end sowie Ingestion, Transformation, Tests, Deployment, Scheduling und Monitoring
* Entwicklung von Data-Warehousing-Artefakten (MySQL), bei Bedarf Star-Schema-Modellierung und Sicherstellung von Datenqualität und Anonymisierung (DSGVO-konform)
* Orchestrierung der Workflows mit Airflow und Bereitstellung konsumierbarer Datasets für Analytics in Power BI
* Zusammenarbeit in agilen Frameworks (Scrum/SAFe) und saubere Dokumentation