Darum geht es konkretUnsere Schwestergesellschaft LEW Wasserkraft GmbH betreibt insgesamt 36 Wasserkraftwerke an Lech, Wertach, Iller, Günz und Donau, die jährlich rund eine Milliarde Kilowattstunden regenerativen Strom für gut 320.000 Haushalte klimaneutral erzeugen. Wir unterstützen sie in der Digitalisierung ihrer Prozesse – und hier kommst du ins Spiel: Mit deiner Expertise verschaffst du dir gezielt einen Überblick über alle Daten und entwickelst ein Daten-Gesamtkonzept, das die LWK bei der Optimierung ihrer Prozesse und Datennutzung in vielerlei Hinsicht weiterbringt. Konkret bedeutet das:Dein daily business: Du konzipierst und entwickelst Datenpipelines, die für die Erfassung und Integration von Daten aus unterschiedlichen Quellen verwendet werden, und hältst diese up to dateMit halben Sachen gibst du dich nicht zufrieden: Deine Datenmodelle sind so optimiert, dass sie eine hohe Qualität aufweisen und sämtliche enthaltene Daten korrekt, vollständig sowie konsistent (Stichwort Integrität) sindDu kennst dein Handwerk: Um große Datenmengen trotz ihrer Größe und Komplexität gezielt zu verarbeiten, nutzt du state-of-the-art Big-Data Architekturen im Microsoft-UmfeldDu hast das Know-how: Dank deiner Praxiserfahrung kannst du auf einen Erfahrungsschatz von geeigneten Methoden für Datenmanagement und -speicherung zurückgreifen und diese bei uns implementierenBetter together: Mit deinen Data-Kolleg:innen (Data Analysts und Data Scientists (m/w/d)) intern und im E.ON-Konzern tauschst du dich regelmäßig aus, um Wissen zu bündeln und datengetriebene Erkenntnisse zu gewinnen Das wünschen wir unsDu hast ein abgeschlossenes IT-Studium (ggf. mit Spezialisierung auf Daten) oder eine IT-Ausbildung; alternativ bist du Quereinsteiger:in und hast mehrjährige Praxiserfahrung im Umgang mit Big Data Du arbeitest bereits mit Big Data und hast dir hier umfangreiches Wissen angeeignet, welches du eigenständig bei uns anwenden und weitergeben kannst; dabei sind Begriffe wie Data Lake, Date Lakehouse und Data Warehouse keine Fremdwörter für dichDie Programmierung in Python und die Entwicklung von Datenpipelines und ETL-Prozessen ist dir ebenso vertraut wie die Nutzung von Big Data-Technologien und Datenbanken Es ist ein Pluspunkt, wenn du Erfahrung mit Cloud-Plattformen (Azure), Microsoft Fabric, IoT und/oder der Verarbeitung von Echtzeitdaten vorweisen kannstFür die Kommunikation mit verschiedenen Stakeholdern bringst du gute Deutsch- und Englischkenntnisse mit