Aufgaben:
Aktuell sind wir auf der Suche nach einem Cloud Data Engineer (Senior), der folgende Aufgaben beim Kunden übernehmen soll:
Analyse der bestehenden Datenarchitektur und Anforderungen der Fachbereiche.
- Konzeption und Implementierung einer Lakehouse-Architektur unter Verwendung von Databricks mit Schwerpunkt auf Delta Live Tables (DLT) und PySpark.
- Entwicklung und Umsetzung von Advanced Analytics- und Business Intelligence-Lösungen.
- Datenmodellierung und Erstellung von SQL-Abfragen
- Integration von Performance-Marketing- und MarTech-Daten in die Architektur.
- Implementierung von Testautomatisierung sowie Continuous Integration / Continuous Deployment (CI/CD) Prozessen, vorzugsweise mit Git.
- Einführung von Data Science- und Machine Learning-Ansätzen.
- Erstellung einer technischen Dokumentation.
Anforderungen:
40% vor Ort in Köln und 60% remote
Must have:
+ Fundierte Kenntnisse und Erfahrung im Bereich Lakehouse Architekturen und Cloud Data Engineering mit Databricks*, Schwerpunkt DLT und Pyspark
+ Fundierte Kenntnisse und Erfahrung bei der Konzeption und Umsetzung von Advanced Analytics und BI Lösungen.
+ Ausgeprägte analytische Fähigkeiten und Kenntnisse in Datenmodellierung und SQL
+ Domänen-Wissen im Bereich Perfomance Marketing und MarTech-Architekturen
+ Praktische Erfahrung mit Testautomatisierung sowie Continuous Integration / Continuous Deployment (CI/CD), möglichst mit Git
+ Kenntnisse und erste Erfahrung im Bereich DataScience, Machine Learning
+ Sehr gute Deutschkenntnisse (mindestens C1) sowie gute Englischkenntnisse
Zusätzliche Informationen:
Konnten wir Ihr Interesse wecken? Dann freuen wir uns auf die Zusendung Ihres aussagekräftigen Expertenprofils unter Angabe Ihrer Stundensatzvorstellung.