Dein Profil
 * Sehr gute Deutsch- und Englischkenntnisse
 * Mindestens ein abgeschlossenen Bachelorstudium im Bereich Informatik oder vergleichbar
 * Sehr gute Programmierkenntnissen in Python oder R
 * Sicherer Umgang mit DevOps Technologien (Docker, Git, Bash, CI/CD etc.)
 * Praktische Erfahrungen in der Umsetzung von Data Pipelines
 * Erste Erfahrungen im Bereich Big Data Analytics (Spark etc.) und in Cloud Technologien (AWS, MS Azure, GCP)
 * Hohe Datenaffinität
Deine Aufgaben
 * Entwicklung und Umsetzung von ETL-Strecken und Datenintegrationsschnittstellen und deren Bereitstellung in Continuous Delivery Pipelines (CI/CD, Docker, Kubernetes etc.)
 * Performante Transformation von Rohdaten in die Business Perspektive
 * Bereitstellung und Analyse großer Datenmengen mit Apache Stacks wie Spark und Cloud Technologien (AWS, MS Azure, GCP)
 * Technologische Weiterentwicklung des CTcon Analytics-Portfolios
 * Mitarbeit an Querschnittsaufgaben
Wir wollen mehr. Auch wenn es um deine Vorteile geht.
 * Mobiles Arbeiten & Homeoffice
 * Weiterbildungen & Coaching
 * Best-in-class-Equipment
 * Firmenwagen und/oder Business Bike
 * Parkplatz
 * Gute Verkehrsanbindung
 * Events für Mitarbeiter
 * Sportangebote 
 * Off-site
 * Mitarbeiterrabatte
 * Getränke- und Snackangebot
 * Regelmäßige Office Lunches