Ihre Aufgaben:
* Entwicklung und Betrieb von ETL/ELT-Pipelines mit Dataform und SQL
* Implementierung von Data Vault 2.0 (Raw & Business Vault)
* Aufbau von Bereitstellungsschichten (Data Marts, Star-Schemata)
* Sicherstellung der Datenqualität und automatisierte Tests
* Coaching & Wissenstransfer: Mentoring des internen Teams, Pair-Programming und Dokumentation
* Cloud-Plattform: Google Cloud Platform (GCP)
* Datenbank: BigQuery
* Transformation: Dataform (SQL-basiert)
* Ingestion: Kafka, Pub/Sub, S3, On-Premise DB2
* Orchestrierung & Infrastruktur: Terraform (IaC), Google Cloud Workflows
Ihre Qualifikationen:
* Exzellente SQL-Kenntnisse für komplexe Datenverarbeitungslogik
* Erfahrung mit ETL/ELT-Pipelines auf einer Cloud-Plattform (GCP, AWS, Azure)
* Erfahrung mit Data Vault
* Erfahrung mit großen Datenmengen und Performance-Optimierung
* Erfahrung mit Terraform, Google Cloud Workflows
* Kenntnisse in dbt als Alternative zu Dataform
* Erfahrung in Coaching und Wissenstransfer
Ihre Vorteile:
* Einsatz bei einem Namenhaften Kunden