Das erwartet Dich:
* Aufbau, Pflege und Weiterentwicklung von Datenarchitekturen (z. B. Data Warehouses, Data Lakes, Lakehouses)
* Entwicklung und Orchestrierung von ETL/ELT-Prozessen zur Datenintegration
* Datenmodellierung und Optimierung zur Unterstützung von Analyse- und Reporting-Anwendungen
* Integration vielfältiger Datenquellen und Aufbau automatisierter Datenpipelines (Batch- und Streaming-Verarbeitung)
* Enge Zusammenarbeit mit Data Scientists, Analyst:innen und Entwickler:innen zur Entwicklung datengetriebener Lösungen
* Betrieb und Versionierung von Datenprojekten mit Git und Azure DevOps
* Monitoring, Logging und Performance-Tuning von Datenworkloads
Das bringst Du mit:
* Fundierte Kenntnisse in SQL sowie praktische Erfahrung mit relationalen und NoSQL-Datenbanken
* Erfahrung in der Arbeit mit Lakehouse-Architekturen (z. B. Microsoft Fabric, Databricks oder ähnliches)
* Gute Kenntnisse in Python (besonders für die Datenverarbeitung) und Bash-Scripting
* Erfahrung im Einsatz und der Verwaltung von Orchestrierungstools wie Airflow oder ähnlichem
* Sicherer Umgang mit Git, idealerweise mit Erfahrung in CI/CD-Pipelines in Azure DevOps
* Vertraut mit Datenmodellierungsprinzipien (z. B. Star Schema, 3NF, Data Vault)
* Selbstständige und strukturierte Arbeitsweise, ausgeprägter Teamgeist und ein Gespür für sauberen, wartbaren Code
* Sehr gute Deutsch- und Englischkenntnisse
Darauf kannst Du Dich freuen:
* Viel Freiraum durch flexible Arbeitszeiten und einen flexiblen Arbeitsort
– eine digitale Ausstattung für dein mobiles Arbeiten ist bei uns selbstverständlich
* 300 € jährliches Gesundheitsbudget sowie eine betriebliche Altersvorsorge
* Klimaneutrale Mobilität: Bezuschussung beim Jobrad-Leasing und Jobticket
* Vergünstigte Mitgliedschaft beim Urban Sports Club
* "HAPPY" Firmenspecials: Wir machen mehr als nur Sommerfest & Weihnachtsfeier
* 2-tägiges Onboarding-Event für deinen optimalen Start und dein Netzwerk bei uns