Dein Profil
* Sehr gute Deutsch- und Englischkenntnisse
* Mindestens ein abgeschlossenen Bachelorstudium im Bereich Informatik oder vergleichbar
* Sehr gute Programmierkenntnissen in Python oder R
* Sicherer Umgang mit DevOps Technologien (Docker, Git, Bash, CI/CD etc.)
* Praktische Erfahrungen in der Umsetzung von Data Pipelines
* Erste Erfahrungen im Bereich Big Data Analytics (Spark etc.) und in Cloud Technologien (AWS, MS Azure, GCP)
* Hohe Datenaffinität
Deine Aufgaben
* Anwendung statistischer Methoden wie deskriptive Analysen, Regressionsverfahren, Zeitreihenanalysen
* Verfahren im Bereich Data Mining & Machine Learning
* Erfahrung in der Umsetzung von Data Pipelines– Data Preprocessing über Analytics bis zur Data Story (z.B. Technologien wie R, Python, SQL, noSQL, Qlik, PowerBI, Tableau)
* Analyse großer Datenmengen mit Apache Stacks wie Spark und Cloud Technologien (AWS, MS Azure, GCP)
* Anwendung des Methodenwissens auf betriebswirtschaftliche Fragestellungen
* Managementorientierte Zusammenfassung und Präsentation wesentlicher Erkenntnisse
* Adressatengerechte Kommunikation komplexer, analytischer oder technischer Zusammenhänge
* Übernahme erster Teilprojektverantwortung
* Mitarbeit an Querschnittsaufgaben
Wir wollen mehr. Auch wenn es um deine Vorteile geht.
* Mobiles Arbeiten & Homeoffice
* Weiterbildungen & Coaching
* Best-in-class-Equipment
* Firmenwagen und/oder Business Bike
* Parkplatz
* Gute Verkehrsanbindung
* Events für Mitarbeiter
* Sportangebote
* Off-site
* Mitarbeiterrabatte
* Getränke- und Snackangebot
* Regelmäßige Office Lunches