Dein Profil
* Sehr gute Deutsch- und Englischkenntnisse
* Mindestens ein abgeschlossenen Bachelorstudium im Bereich Informatik oder vergleichbar
* Sehr gute Programmierkenntnissen in Python oder R
* Sicherer Umgang mit DevOps Technologien (Docker, Git, Bash, CI/CD etc.)
* Praktische Erfahrungen in der Umsetzung von Data Pipelines
* Erste Erfahrungen im Bereich Big Data Analytics (Spark etc.) und in Cloud Technologien (AWS, MS Azure, GCP)
* Hohe Datenaffinität
Deine Aufgaben
* Entwicklung und Umsetzung von ETL-Strecken und Datenintegrationsschnittstellen und deren Bereitstellung in Continuous Delivery Pipelines (CI/CD, Docker, Kubernetes etc.)
* Performante Transformation von Rohdaten in die Business Perspektive
* Bereitstellung und Analyse großer Datenmengen mit Apache Stacks wie Spark und Cloud Technologien (AWS, MS Azure, GCP)
* Technologische Weiterentwicklung des CTcon Analytics-Portfolios
* Mitarbeit an Querschnittsaufgaben
Wir wollen mehr. Auch wenn es um deine Vorteile geht.
* Mobiles Arbeiten & Homeoffice
* Weiterbildungen & Coaching
* Best-in-class-Equipment
* Firmenwagen und/oder Business Bike
* Parkplatz
* Gute Verkehrsanbindung
* Events für Mitarbeiter
* Sportangebote
* Off-site
* Mitarbeiterrabatte
* Getränke- und Snackangebot
* Regelmäßige Office Lunches