Ihre Aufgaben
1. Entwicklung skalierbarer Datenmodelle und Datenpipelines mit Python, PySpark und SQL
2. Datenaufbereitung, -bereinigung und -transformation für Analyse- und Monitoringzwecke
3. Analyse großer Datenmengen zur Identifikation von Fehlerursachen und Korrelationen
4. Mitwirkung an Monitoring- und Analyseplattformen für Felddaten
5. Erstellung und Pflege technischer Dokumentationen
6. Zusammenarbeit mit Qualitätssicherung und Entwicklung zur Sicherstellung von Stabilität und Skalierbarkeit
7. Nutzung moderner Cloud- und DevOps-Umgebungen (Microsoft Azure Stack)
Ihre Qualifikationen
8. Abgeschlossenes Studium im Bereich Data Science, Informatik, Informationstechnologie oder vergleichbar notwendig
9. Fundierte Erfahrung mit Cloud-Technologien (Azure) und DevOps-Prozessen notwendig
10. Sehr gute Kenntnisse in Python und SQL erforderlich
11. Kenntnisse im Bereich elektrische Antriebssysteme von Vorteil
12. Fließende Deutsch- und Englischkenntnisse erforderlich
Ihre Vorteile
13. Unbefristeter Arbeitsvertrag
14. Hauseigener ver.di-Tarifvertrag
15. 30 Tage Urlaub
16. Gleitzeitkonto
17. Sozial- und Zusatzleistungen (VWL)
18. Individuelle Förderkonzepte und Weiterbildungen
19. Remote Work
20. Zuschuss zum Jobticket
21. Corporate Benefits Programm