Aufgaben Entwicklung und Betrieb von ETL/ELT-Pipelines mit Dataform und SQL Implementierung von Data Vault 2.0 (Raw & Business Vault) Aufbau von Bereitstellungsschichten (Data Marts, Star-Schemata) Sicherstellung der Datenqualität und automatisierte Tests Coaching & Wissenstransfer: Mentoring des internen Teams, Pair-Programming und Dokumentation Cloud-Plattform: Google Cloud Platform (GCP) Datenbank: BigQuery Transformation: Dataform (SQL-basiert) Ingestion: Kafka, Pub/Sub, S3, On-Premise DB2 Orchestrierung & Infrastruktur: Terraform (IaC), Google Cloud Workflows Profil Exzellente SQL-Kenntnisse für komplexe Datenverarbeitungslogik Erfahrung mit ETL/ELT-Pipelines auf einer Cloud-Plattform (GCP, AWS, Azure) Erfahrung mit Data Vault Erfahrung mit großen Datenmengen und Performance-Optimierung Erfahrung mit Terraform, Google Cloud Workflows Kenntnisse in dbt als Alternative zu Dataform Erfahrung in Coaching und Wissenstransfer Benefits Einsatz bei einem Namenhaften Kunden