Rolle
* Entwicklung und Optimierung von Datenmodellen und Pipelines mit modernen Data Engineering-Technologien
* Planung und Aufbau sicherer, skalierbarer Dateninfrastrukturen in Cloud-Umgebungen (AWS, Azure)
* Analyse und Transformation großer Datenmengen mit Tools wie Snowflake, Databricks, Spark und Hadoop
* Anwendung agiler Methoden und DevOps-Praktiken zur Prozess- und Produktverbesserung
* Programmierung mit Python, PySpark, SQL und weiteren Skriptsprachen
* Proaktive Weiterentwicklung von Datenmanagement- und Transformationsstrategien
Verantwortung
* Abgeschlossenes Studium in Informatik oder verwandtem Bereich
* Erfahrung in Entwicklung von Datenmodellen, Pipelines und Dateninfrastrukturen
* Kenntnisse in Python/PySpark, SQL sowie Datenbank- und Big-Data-Technologien (z.B. Snowflake, Databricks, Spark, Hadoop)
* Vertrautheit mit DevOps, Scripting und modernen Datenkonzepten (Datavault 2.0, Data Mesh, Lakehouse)
* Erfahrung mit Cloud-Plattformen (AWS, Azure) und sehr gute Deutsch- sowie Englischkenntnisse
Benefits
* Internationales Umfeld
* Komfortables Büro mit moderner Infrastruktur
* Homeoffice
* Flexible Arbeitszeitgestaltung
* Attraktive Weiterbildungs- und Entwicklungsmöglichkeiten
* Markt- und leistungsgerechte Löhne
* Interessante und abwechslungsreiche Tätigkeiten/Projekte
ROCKEN Jobs
Profil Erstellen