Salary: 45.000 - 75.000 € per year Requirements: Abgeschlossenes Studium oder Ausbildung im IT-Umfeld Gute SQL-Kenntnisse und Erfahrung mit Python Erfahrung mit Azure und Plattformen wie Teradata, Cloudera oder Databricks Kenntnisse über moderne Datenbanksysteme Erfahrung mit Jira, Git und Terraform Sehr gute Englischkenntnisse Responsibilities: Entwerfen, Entwickeln und Pflegen der skalierbaren Datenpipelines Implementieren von Datenintegrationsprozessen mit Nifi, Airflow, Apache Kafka und Universal Messaging Verantwortung für die Datenqualität, -integrität und -sicherheit während des gesamten Datenlebenszyklus Neugier und Freude im Ausprobieren und Bewerten neuer Technologien Zusammenarbeit mit BI-Spezialisten, Datenwissenschaftlern und Cloud-Ingenieuren Technologies: Airflow Azure Cloud Databricks Git JIRA Kafka Python SQL Terraform More: Bei DACHSER verfolgen wir die Mission, die weltweit intelligenteste Kombination und Integration logistischer Netzkompetenzen zu schaffen und so die Logistikbilanz unserer Kunden zu optimieren. Wir bieten die Möglichkeit zum hybriden Arbeiten, eine moderne Arbeitsumgebung sowie flexible Arbeitszeiten. Unsere Benefit-Angebote sind darauf ausgelegt, Ihre individuellen Bedürfnisse bestmöglich zu unterstützen. In unserem nachhaltig wachsenden und familiengeführten Unternehmen erwarten Sie vielfältige Aufgabenstellungen in einer Zukunftsbranche. Zusätzlich ermöglichen wir durch ein umfassendes Onboarding-Programm und Karriereplanung über die DACHSER Academy eine erfolgreiche Entwicklung. Genießen Sie auch Fitness- und Sportangebote, zahlreiche Vergünstigungen und die Option, ein Dienstfahrrad über Company Bike zu nutzen. last updated 13 week of 2026