Deine Aufgaben
* Produktentwicklung und Betrieb: Du stellst den reibungslosen operativen Betrieb eines AWS-basierten Produkts zur Ermittlung von Kundenpräferenzen sicher und entwickelst dieses stetig weiter
* End-to-End Projektarbeit: Von der Konzeption bis hin zur Analyse begleitest Du Projekte gemeinsam im Team
* Data Engineering: Die Entwicklung unserer Daten-Pipelines liegt in Deiner Hand
* Datenqualität und Betrieb: Du etablierst Datenqualitätsprüfungen, Monitoring und Alerting und unterstützt beim Incident-Handling
* Produkt und Business-Logik: Du implementierst Business-Logik im Produkt und stellst sicher, dass Anforderungen sauber in Datenstrukturen und Transformationen übersetzt werden
* Stakeholdermanagement: Du stehst im engen Austausch mit den Fachbereichen zur Abstimmung von Betrieb und Plattform-Ausrichtung
Dein Arbeitsumfeld
* Ein Großteil unseres Produkts ist in Python und PySpark programmiert
* Für die Datenbeschaffung im Data Warehouse nutzen wir SQL, während Datenanalysen in R oder Python durchgeführt werden
* Wir setzen auf eine moderne CI/CD-Pipeline mit automatisierten Tests, Code-Style-Prüfungen und täglichen Deployments
* Wir bieten viel Freiraum für persönliche und teamweite Fortbildungen, Zeit für Refactorings sowie unsere bereichsweiten Innovation Days
Dein Profil
* Abgeschlossenes Studium (z. B. Physik, Mathematik, Informatik, Wirtschaftswissenschaften) oder eine vergleichbare Qualifikation
* Mindestens 3 Jahre Berufserfahrung als Analytics Engineer, Data Scientist, Data Engineer oder in einer vergleichbaren Rolle
* Sehr gute Python-Kenntnisse für die Pipeline- und Softwareentwicklung
* Gute SQL-Kenntnisse für die Datenmodellierung und -analyse
* Erfahrung im Aufbau, Betrieb und in der Wartung von Daten-Pipelines
* Routinierter Umgang mit modernen Software-Engineering-Praktiken (Git, Code Reviews, CI/CD, Testing)
* Praktische Erfahrung mit AWS (z. B. Glue, Lambda, Step Functions); Kenntnisse in Spark/Databricks sind ein Plus