 
        
        Dein Profil
 * Sehr gute Deutsch- und Englischkenntnisse
 * Mindestens ein abgeschlossenen Bachelorstudium im Bereich Informatik oder vergleichbar
 * Sehr gute Programmierkenntnissen in Python oder R
 * Sicherer Umgang mit DevOps Technologien (Docker, Git, Bash, CI/CD etc.)
 * Praktische Erfahrungen in der Umsetzung von Data Pipelines
 * Erste Erfahrungen im Bereich Big Data Analytics (Spark etc.) und in Cloud Technologien (AWS, MS Azure, GCP)
 * Hohe Datenaffinität
Deine Aufgaben
 * Anwendung statistischer Methoden wie deskriptive Analysen, Regressionsverfahren, Zeitreihenanalysen
 * Verfahren im Bereich Data Mining & Machine Learning
 * Erfahrung in der Umsetzung von Data Pipelines– Data Preprocessing über Analytics bis zur Data Story (z.B. Technologien wie R, Python, SQL, noSQL, Qlik, PowerBI, Tableau)
 * Analyse großer Datenmengen mit Apache Stacks wie Spark und Cloud Technologien (AWS, MS Azure, GCP)
 * Anwendung des Methodenwissens auf betriebswirtschaftliche Fragestellungen
 * Managementorientierte Zusammenfassung und Präsentation wesentlicher Erkenntnisse
 * Adressatengerechte Kommunikation komplexer, analytischer oder technischer Zusammenhänge
 * Übernahme erster Teilprojektverantwortung
 * Mitarbeit an Querschnittsaufgaben
Wir wollen mehr. Auch wenn es um deine Vorteile geht.
 * Mobiles Arbeiten & Homeoffice
 * Weiterbildungen & Coaching
 * Best-in-class-Equipment
 * Firmenwagen und/oder Business Bike
 * Parkplatz
 * Gute Verkehrsanbindung
 * Events für Mitarbeiter
 * Sportangebote 
 * Off-site
 * Mitarbeiterrabatte
 * Getränke- und Snackangebot
 * Regelmäßige Office Lunches