Westhouse ist eines der führenden internationalen Recruitment Unternehmen für die Vermittlung von hochqualifizierten Fachexperten in Bereichen wie IT Life Cycle, SAP, Engineering, Kaufmännischem und Fachberatung.
Für unseren Kunden suchen wir aktuell eine/n Senior Data Engineer (Use-Cases/Science) (m/w/d) - Remote.
Ihre Aufgaben
1. Analyse von Ist Zuständen (z.B. Datenpipelines, Datensampeln, CI/CD Systeme, Dashboarding)
2. Ausarbeiten von Zielzuständen (z.B. Datenpipelines, Generische Datenmodelle, Dashboarding)
3. Erarbeitung von Lösungsoptionen, um vom Ist- zum Zielzustand zu gelangen, inkl. der Durchführung von Workshops (z.B. Analytics POCs)
4. Bewertung und vorstellen von Lösungsoptionen (z.B. Analytics POCs)
5. Analyse und Gestaltung der cloudspezifischen Business Architektur (z.B. Dashboarding, Analytics Use-Cases)
6. Organisation und Durchführung von themenspezifischen Workshops zur Präsentation von Projekt-/Arbeitsergebnissen (z.B. im Kontext von IoT, Docker, Dashboarding)
7. Erstellung entsprechender Dokumentation der Arbeitsergebnisse (z.B. Konzepte in Confluence, Code in den Repositories)
8. Fachliche Unterstützung bei der Weiterentwicklung des cloudnativen Frontends, dazu gehören die Umsetzung und Dokumentation von neuen Bibliotheken und BI Tools und deren Features
9. Entwicklung von Daten Pipelines zur Berechnung von KPIs und Verknüpfung von unterschiedlichen Datenquellen auf Basis von Python, pySpark und SQL
10. Fachliche Unterstützung im SCRUM Team, Teilnahme an Refinements, Plannings, Reviews, fachliche Retros
11. Data Exploration von neuen Datenquellen
12. Entwicklung von Daten Dashboards zur Analyse von technischen Daten
13. Implementierung von Methoden zur tiefgehenden Analyse von Logistik und Fahrzeugdaten im Kontext CBM, Digital Twins, Energiedaten
14. Weitergabe von projektbezogenem Wissen an neue Projektmitglieder im Onboarding Prozess des Projektes
Interessiert?
Sven Schäfer
Tel.:
Fax.:
Email:
Share posting
Ihre Qualifikationen
15. Muss-Kriterien (bitte nur bewerben, wenn ALLE Muss-Kriterien erfüllt sind!):
16. Mind. 2 Jahre Erfahrung in der Entwicklung von Analyse Pipelines mittels der für die geforderte Pipeline-Entwicklung erforderlichen Tools und Programmiersprachen. (SQL, Python, ...)
17. Mind. 5 Jahre Erfahrung im Aufbau und/oder in der Integration von Data Science in fachliche Prozesse/Abläufe/Anwendungen von Use Cases
18. Mind. 4 Jahre Erfahrung in Projekten zur datengestützten Berechnung von Fahrzeug- und Energiedaten KPIs im Eisenbahnsektor
19. Mind. 2 Jahre Erfahrung in der SW-Entwicklung (z.B. GIT, CICD, Testing)
20. Mind. Englischkenntnisse auf C1-Niveau
21. Soll-Kriterien:
22. Mind. 1 Projekterfahrung in einer agilen und skalierten Projektumgebung
23. Mind. 1 Projekterfahrung im Umgang mit Daten aus der Transport- und Logistikbranche, insbesondere im Umgang mit unterschiedlichen Datenformaten, Qualitätseinschränkungen und Verarbeitungsprozessen
24. Mind. 1 Projekterfahrung im Bereich Data Engineering und der Anwendung moderner Cloud Architekturen sowie der End-to-End Operationalisierung von ETL-/Datenstrecken
25. Mind. 1 Projekterfahrung mit der praktischen nutzung von AWS-Tools
26. Mind. 1 Projekterfahrung mit praktischer Erfahrung in der Entwicklungsumgebung PYCharm