Wer sind wir?
Wir suchen einen Experten für Datenintegration zur Unterstützung unseres Teams in Ulm.
Der Datenintegrations-Experte ist fachlich verantwortlich für die Entwicklung und Pflege von Datenpipelines, Datenmodellierung und -optimierung sowie die Sicherstellung der Datenqualität.
Aufgaben
* Entwicklung und Pflege von Datenpipelines (ETL), um Daten aus verschiedenen Quellen effizient zu integrieren und bereitzustellen.
* Datenmodellierung und Optimierung von Datenbanken und Abfragen (SQL und NoSQL)
* Überwachung und Sicherstellung der Datenqualität durch Monitoring, Testing und automatisierte Validierungsprozesse
* Enge Zusammenarbeit mit unserem interdisziplinären Datenteam, um Datenforderungen zu verstehen und in robuste Datenlösungen zu übersetzen.
* Automatisierung wiederkehrender Datenprozesse, um Effizienz und Zuverlässigkeit zu steigern.
* Evaluierung neuer Technologien und Tools zur kontinuierlichen Weiterentwicklung unseres Data-Stacks.
Qualifikationen
* Gute Deutsch- und Englischkenntnisse (C1)
* Abgeschlossenes Studium in einem MINT-Fach oder vergleichbar tiefes Verständnis von Datenstrukturen und Algorithmen.
* Fundierte Kenntnisse in Python und gängigen Datenverarbeitungs-Libraries (z.B. Pandas, PySpark).
* Erfahrung im Aufbau und Betrieb robuster ETL-Prozesse sowie in der Datenintegration.
* Sicherer Umgang mit SQL und NoSQL-Datenbanken.
* Sicherer Umgang mit Git für Versionskontrolle, Branching und kollaborative Code-Reviews.
* Hoher Qualitätsanspruch an Daten (Testing, Monitoring) und Fähigkeit, komplexe Datenprobleme analytisch zu lösen.
* Kommunikationsstärke und Freude daran, komplexe Sachverhalte verständlich zu erklären.
* Offenheit für neue Technologien und kontinuierliche Weiterbildung, z.B. in Machine Learning / NLP (Nice-to-Have).
Vorteile
Ein familiäres und informelles Arbeitsumfeld, flexible Arbeitszeiten und die Möglichkeit im Homeoffice zu arbeiten.
Individuelle Entwicklungsmöglichkeiten mit kontinuierlicher Unterstützung sind auch selbstverständlich.
Wir freuen uns auf Dich!