Durchführung von Aufgaben des fachlichen Betriebs: CVEs lösen, Daten nach prozessieren und Stakeholderkommunikation Weiterentwicklung von Datenprodukten (Data Engineering) mit SQL und Spark sowie die Identifikation von Optimierungspotentialen hinsichtlich time-to-market und Betriebskosten Sowohl Aufbau und Betrieb von Datenpipelines für Streaming (Kafka/Event Hubs) und Batch (ADLS/S3) als auch Datenaufbereitung in Microsoft Fabric Lakehouses mit Scala Spark und Delta Umsetzung von Datenprodukten end-to-end sowie Ingestion, Transformation, Tests, Deployment, Scheduling und Monitoring Entwicklung von Data-Warehousing-Artefakten (MySQL), bei Bedarf Star-Schema-Modellierung und Sicherstellung von Datenqualität und Anonymisierung (DSGVO-konform) Orchestrierung der Workflows mit Airflow und Bereitstellung konsumierbarer Datasets für Analytics in Power BI Zusammenarbeit in agilen Frameworks (Scrum/SAFe) und saubere Dokumentation Eine Stellenanzeige von DB Zeitarbeit GmbH