Aufgaben Entwicklung, Pflege und Optimierung von Datenpipelines und ETL-Prozessen Integration und Verarbeitung großer Datenmengen aus unterschiedlichen Quellen Sicherstellung der Datenqualität und -konsistenz Zusammenarbeit mit Data Scientists und anderen Fachbereichen zur Bereitstellung von Datenlösungen Unterstützung bei der Implementierung von Cloud- oder On-Premise-Datenplattformen Profil Erfahrung in der Arbeit mit Python für Datenverarbeitung und Automatisierung Grundkenntnisse oder Erfahrung mit Apache-Technologien (z. B. Apache Spark, Kafka, Airflow) Verständnis für Datenbanken (SQL und NoSQL) Kenntnisse in Datenmodellierung und -architektur von Vorteil Analytisches Denken, Problemlösungsfähigkeit und Teamorientierung Benefits Flexible Arbeitszeiten und die Möglichkeit für Remote-Arbeit Weiterbildungsmöglichkeiten und moderne Technologien Attraktive Vergütung und Benefits