Ihre Aufgaben:
* Entwicklung, Pflege und Optimierung von Datenpipelines und ETL-Prozessen
* Integration und Verarbeitung großer Datenmengen aus unterschiedlichen Quellen
* Sicherstellung der Datenqualität und -konsistenz
* Zusammenarbeit mit Data Scientists und anderen Fachbereichen zur Bereitstellung von Datenlösungen
* Unterstützung bei der Implementierung von Cloud- oder On-Premise-Datenplattformen
Ihre Qualifikationen:
* Erfahrung in der Arbeit mit Python für Datenverarbeitung und Automatisierung
* Grundkenntnisse oder Erfahrung mit Apache-Technologien (z. B. Apache Spark, Kafka, Airflow)
* Verständnis für Datenbanken (SQL und NoSQL)
* Kenntnisse in Datenmodellierung und -architektur von Vorteil
* Analytisches Denken, Problemlösungsfähigkeit und Teamorientierung
Ihre Vorteile:
* Flexible Arbeitszeiten und die Möglichkeit für Remote-Arbeit
* Weiterbildungsmöglichkeiten und moderne Technologien
* Attraktive Vergütung und Benefits