AufgabenAnwendung statistischer Methoden wie deskriptive Analysen, Regressionsverfahren, ZeitreihenanalysenVerfahren im Bereich Data Mining & Machine LearningErfahrung in der Umsetzung von Data Pipelines– Data Preprocessing über Analytics bis zur Data Story (z.B. Technologien wie Python, SQL, noSQL, Qlik, PowerBI, Tableau)Analyse großer Datenmengen mit Apache Stacks wie Spark und Cloud Technologien (AWS, MS Azure, GCP)Anwendung des Methodenwissens auf betriebswirtschaftliche FragestellungenManagementorientierte Zusammenfassung und Präsentation wesentlicher ErkenntnisseAdressatengerechte Kommunikation komplexer, analytischer oder technischer ZusammenhängeÜbernahme erster TeilprojektverantwortungMitarbeit an QuerschnittsaufgabenVoraussetzungenSehr gute Deutsch- und EnglischkenntnisseMindestens ein abgeschlossenes Bachelorstudium im Bereich Informatik oder vergleichbarSehr gute Programmierkenntnisse in PythonSicherer Umgang mit DevOps Technologien (Docker, Git, Bash, CI/CD etc.)Praktische Erfahrungen in der Umsetzung von Data PipelinesErste Erfahrungen im Bereich Big Data Analytics (Spark etc.) und in Cloud Technologien (AWS, MS Azure, GCP)BürostandorteBürostandorte in Bonn, Düsseldorf, Frankfurt a.M. & München #J-18808-Ljbffr