Aufgaben Implementierung und Weiterentwicklung von Datenplattform-Komponenten auf Basis der Google Cloud Platform Aufbau und Betrieb von Batch- und Streaming-Pipelines Umsetzung von ETL- / ELT-Prozessen, inklusive CDC und SCD Type 1 & 2 Datenmodellierung, insbesondere Schema-Modellierung und Dimension Tables Vorbereitung von Analysedaten sowie Freigabe- und Konsumschichten Arbeiten mit Streaming- und Realtime-Technologien Infrastrukturdefinition und -anpassung mittels Terraform -Infrastructure as Code Entwicklung datenverarbeitender Komponenten mit Python Mitarbeit an service-nahen Komponenten unter Einsatz von Java Profil Fundierte Erfahrung im Cloud-Umfeld, insbesondere mit Google Cloud Platform -GCP Sehr gute Kenntnisse in Python -Muss-Kriterium Erfahrung mit BigQuery, insbesondere im Kontext von Analyticsdatenbanken und Kostenoptimierung Praxiserfahrung mit Batch- und Streaming-Datenverarbeitung Kenntnisse in Pub/Sub sowie Dataflow / Apache Beam Erfahrung mit ETL / ELT, inkl. CDC und Slowly Changing Dimensions -Typ 1 & 2- Sicher in Datenmodellierung -Schema-Design, Dimensionstabellen Erfahrung mit Terraform und Infrastructure-as-Code-Ansätzen Java-Kenntnisse für servicebasierte Komponenten Benefits Durch Ihre Kandidatur über Hays sind Sie Teil einer kleinen, passgenauen Auswahl, die dem Kunden für diese Position präsentiert wird Erhöhen Sie Ihre Chancen zu einem Vorstellungsgespräch eingeladen zu werden Hays legt großen Wert auf die Kandidatenqualität und Passgenauigkeit der Profile Bevor wir Ihren Lebenslauf bei unserem Kunden vorstellen, prüfen wir mit Ihnen, ob die Vakanz zu Ihnen passt