## Dein Profil - Sehr gute Deutsch- und Englischkenntnisse - Mindestens ein abgeschlossenen Bachelorstudium im Bereich Informatik oder vergleichbar - Sehr gute Programmierkenntnissen in Python oder R - Sicherer Umgang mit DevOps Technologien (Docker, Git, Bash, CI/CD etc.) - Praktische Erfahrungen in der Umsetzung von Data Pipelines - Erste Erfahrungen im Bereich Big Data Analytics (Spark etc.) und in Cloud Technologien (AWS, MS Azure, GCP) - Hohe Datenaffinität ## Deine Aufgaben - Anwendung statistischer Methoden wie deskriptive Analysen, Regressionsverfahren, Zeitreihenanalysen - Verfahren im Bereich Data Mining & Machine Learning - Erfahrung in der Umsetzung von Data Pipelines– Data Preprocessing über Analytics bis zur Data Story (z.B. Technologien wie R, Python, SQL, noSQL, Qlik, PowerBI, Tableau) - Analyse großer Datenmengen mit Apache Stacks wie Spark und Cloud Technologien (AWS, MS Azure, GCP) - Anwendung des Methodenwissens auf betriebswirtschaftliche Fragestellungen - Managementorientierte Zusammenfassung und Präsentation wesentlicher Erkenntnisse - Adressatengerechte Kommunikation komplexer, analytischer oder technischer Zusammenhänge - Übernahme erster Teilprojektverantwortung - Mitarbeit an Querschnittsaufgaben ## Wir wollen mehr. Auch wenn es um deine Vorteile geht. - Mobiles Arbeiten & Homeoffice - Weiterbildungen & Coaching - Best-in-class-Equipment - Firmenwagen und/oder Business Bike - Parkplatz - Gute Verkehrsanbindung - Events für Mitarbeiter - Sportangebote - Off-site - Mitarbeiterrabatte - Getränke- und Snackangebot - Regelmäßige Office Lunches