Zum nächstmöglichen Zeitpunkt suchen wir Sie als Data Engineer - BI Plattform (m/w/d) für den Standort Berlin.
Ihr Aufgabenbereich
* Verantwortung für den Entwurf und die (Weiter-)Entwicklung von anwendungsfallspezifischen Datenarchitekturen und Datenmodellen sowie für die Entwicklung und Optimierung von SQL-Abfragen und Prozeduren innerhalb Applikationen wie DBT
* Entwurf, Entwicklung, Test und Monitoring von Prozessen zur Extraktion, Transformation und Laden von Daten aus Quellsystemen in ein Data Warehouse oder Data Lake (ETL/ELT-Pipelines) sowie Entwicklung, Orchestration und Monitoring von Workflows mittels Technologien wie (Airflow / ArgoWorkflows / DAGs)
* Gestaltung automatisierter Qualitätsprozesse zur Sicherstellung der Software- und Datenqualität sowie der Datenverfügbarkeit zur Einhaltung von Service Level Agreements
* Anleitung und Weiterentwicklung der technischen Fähigkeiten, sowie Wissensweitergabe im Business Intelligence Team
* Aufbau und Betrieb moderner, skalierbarer Datenarchitekturen mit Container-Technologien (Docker, Kubernetes)
Ihr Profil
* Abgeschlossene Ausbildung im IT-Bereich (z.B. Fachinformatiker für Systemintegration, Datenbankentwicklung) oder eine vergleichbare Qualifikation
* Umfassende Kenntnisse in der Python- und SQL-Entwicklung sowie in Software-Entwicklungsstandards, Best Practices und Testing (Unit Tests, Test Frameworks, Mocking)
* Mehrjährige Erfahrung in der Konzeption und Implementierung von (agilen) Projekten und Produkten im Kontext Data Engineering
* Fachwissen in einem oder mehreren ETL-Tools (z.B. Airflow, Argo Workflows), in der Datenmodellierung/-architektur (3NF, Kimball, Inmon, Data Vault 2.0, Lambda-/Kappa-Architekturen) sowie in Schnittstellen/APIs (Rest, Soap)
* Know-how im Bereich analytische Datenbanken, Containerisierung, Kubernetes, Linux und Bash
* Sichere Kenntnisse in der Aufsetzung und Optimierung von Enterprise-Data-Warehouse-/Data-Lake-Strukturen sowie dem Bereich von ELT
* Breites Data Engineering Markt- und Technologiewissen im Bereich Tools (Query Engines), Frameworks (z.B. Delta Lake, Kafka) und Konzepte (Lakehouse, Data Mesh)
* Umfangreiche Erfahrungen im Bereich analytische Datenbanken, Containerisierung, Kubernetes, Linux und Bash
* Erfahrungen bei der Implementierung von Data Governance, speziell Data Security und Data Privacy