Welche Aufgaben erwarten dich?
* Aufbau und Betrieb skalierbarer Daten-Pipelines und ETL/ELT‑Prozesse in Microsoft Fabric für zahlreiche interne und externe Datenquellen.
* Entwicklung und Pflege leistungsfähiger, BI‑fähiger Datenmodelle, Data Warehouses und Data Lakes.
* Sicherstellung von Datenqualität und ‑verfügbarkeit durch ein Monitoring‑/Observability‑Framework mit proaktiven Alerts.
* Bereitstellung von AI‑/ML‑fähigen Datenprodukten und Feature‑Datasets für datengetriebene Use Cases.
* Umsetzung von Richtlinien zu Datensicherheit, Data Governance und Zugriffsrechten.
* Enge Zusammenarbeit mit Fachbereichen zur Übersetzung von Business‑Anforderungen in robuste, wiederverwendbare Datenlösungen.
Was erwarten wir von dir?
* Abgeschlossenes Studium in Wirtschaftswissenschaften, Statistik, Data Science, Informatik oder einer vergleichbaren Fachrichtung – alternativ eine gleichwertige Qualifikation mit Praxiserfahrung
* Mindestens 3 Jahre Erfahrung im Design, Aufbau und Betrieb von Daten‑Pipelines mit SQL, Python und modernen ETL/ELT‑Frameworks, idealerweise in einer Cloud‑Umgebung (z. B. Microsoft Fabric, Azure Data Factory)
* Fundierte Kenntnisse in Datenmodellierung, Normalisierung und Performance‑Optimierung für Analytics‑ und AI‑Use‑Cases
* Sehr gute analytische Fähigkeiten, strukturierte, lösungsorientierte Arbeitsweise und starker Fokus auf Datenqualität
* Sehr gute Deutsch‑ und gute Englischkenntnisse
Was wir dir bieten:
Neben einer fairen Vergütung, spannenden Aufgabenbereichen und viel Eigenverantwortung, haben wir noch den ein oder anderen Benefit, der dir gefallen wird:
* Flexible Arbeitszeitmodelle sowie die Möglichkeit auf Mobiles Arbeiten
* Unbefristetes und sicheres Beschäftigungsverhältnis
* Firmenfitnessangebot „Wellpass“ und günstiges Fahrradleasing über „Job Rad“
* Betriebliche Altersvorsorge, betrieblicher Krankenzusatzversicherung, Berufsunfähigkeitsversicherung
* Weiterbildungsmöglichkeiten wie LinkedIn Learning oder Babbel
* Sommerfest, Weihnachtsfeier, Firmenlauf & Co