ARAG-Platz 1, 40472 Düsseldorf
ab sofort
Stellen ID: HR_DUS01944
Das erwartet dich
Datenaufbereitung & -integration: Gemeinsam mit dem Team baust und pflegst du ETL-/ELT-Pipelines in Databricks und Azure. Außerdem stellst du stabile Verbindungen zu ERP- und Buchhaltungssystemen her und sorgst für hohe Datenqualität
Datenanalyse & Visualisierung: Mit Python (Pandas, NumPy, PySpark) analysierst du große Datensätze und erstellst verständliche Dashboards (Power BI, Tableau) sowie Berichte, die Entscheidungen leichter machen
Machine Learning & Predictive Analytics: Du wirkst an Konzeption, Umsetzung und Validierung von ML-Modellen mit (z. B. Zeitreihen, Klassifikation, Clustering) und bringst Modelle in die Anwendung – in Databricks-Notebooks oder via Azure ML Deployments
Data Engineering & DataOps: Du hilfst beim Aufbau skalierbarer Datenarchitekturen, versionierst Code mit Git und unterstützt CI/CD-Abläufe, außerdem achtest auf Performance, Sicherheit und zuverlässige Prozesse in der Cloud
Finance: Du arbeitest eng mit Finance und Controlling zusammen, verstehst Bedürfnisse und übersetzt sie in Datenlösungen
Dokumentation & Wissensaustausch: Du hältst Erkenntnisse fest, bereitest Best Practices und Schulungsunterlagen auf und teilst Wissen im Team
Das bringst du mit
Du bist immatrikuliert in einem quantitativen Fach (z. B. Data Science, Mathematik, Wirtschaftsinformatik, Statistik).
Du hast Erfahrung im Aufbau und Betrieb von ML-Pipelines – von Feature Engineering bis Modell-Monitoring und DataOps-Prinzipien
Deine sehr gute Python-Skills (z. B. Pandas, PySpark, scikit-learn), Praxis mit Databricks und Azure-Services (Data Factory, SQL Data Warehouse, Azure ML) werden ergänzt durch einen sicheren Umgang mit SQL und NoSQL-Datenbanken.
Du hast Freude an finanzwirtschaftlichen Zusammenhängen und möchtest Prozesse im Finanzbereich messbar verbessern
Deutsch auf muttersprachlichem Niveau und sicheres Englisch in Wort und Schrift helfen dir im Arbeitsalltag