Ihre Aufgaben:
* Implementierung und Weiterentwicklung von Datenplattform-Komponenten auf Basis der Google Cloud Platform
* Aufbau und Betrieb von Batch- und Streaming-Pipelines
* Umsetzung von ETL- / ELT-Prozessen, inklusive CDC und SCD Type 1 & 2
* Datenmodellierung, insbesondere Schema-Modellierung und Dimension Tables
* Vorbereitung von Analysedaten sowie Freigabe- und Konsumschichten
* Arbeiten mit Streaming- und Realtime-Technologien
* Infrastrukturdefinition und -anpassung mittels Terraform -Infrastructure as Code
* Entwicklung datenverarbeitender Komponenten mit Python
* Mitarbeit an service-nahen Komponenten unter Einsatz von Java
Ihre Qualifikationen:
* Fundierte Erfahrung im Cloud-Umfeld, insbesondere mit Google Cloud Platform -GCP
* Sehr gute Kenntnisse in Python -Muss-Kriterium
* Erfahrung mit BigQuery, insbesondere im Kontext von Analyticsdatenbanken und Kostenoptimierung
* Praxiserfahrung mit Batch- und Streaming-Datenverarbeitung
* Kenntnisse in Pub/Sub sowie Dataflow / Apache Beam
* Erfahrung mit ETL / ELT, inkl. CDC und Slowly Changing Dimensions -Typ 1 & 2-
* Sicher in Datenmodellierung -Schema-Design, Dimensionstabellen
* Erfahrung mit Terraform und Infrastructure-as-Code-Ansätzen
* Java-Kenntnisse für servicebasierte Komponenten
Ihre Vorteile:
* Durch Ihre Kandidatur über Hays sind Sie Teil einer kleinen, passgenauen Auswahl, die dem Kunden für diese Position präsentiert wird
* Erhöhen Sie Ihre Chancen zu einem Vorstellungsgespräch eingeladen zu werden
* Hays legt großen Wert auf die Kandidatenqualität und Passgenauigkeit der Profile
* Bevor wir Ihren Lebenslauf bei unserem Kunden vorstellen, prüfen wir mit Ihnen, ob die Vakanz zu Ihnen passt