Deine Aufgaben:
* Data Engineering: Du unterstützt beim Aufbauen, Pflegen und Weiterentwickeln von Datenpipelines und Automatisierungen mit Python, Bash oder ähnlichen Tools.
* Daten Monitoring: Du wirkst beim Integrieren und Überwachen von Datenquellen (APIs, Datenbanken und Cloud-Services) kontinuierlich mit.
* Data Infrastructure: Du begleitest das Deployen und das Warten von technischen Lösungen (z.B. Skripte, kleine Anwendungen, Monitoring-Tools).
* Data Management: Du dokumentierst Prozesse, technische Abläufe und Schnittstellen und unterstützt bei der Fehleranalyse und -behebung im laufenden Betrieb.
* Teamwork: Du arbeitest eng mit den Fachbereichen, Data Engineers und Data Scientists zusammen.
Das bieten wir dir:
* Flexible Arbeitszeiten (bis zu 20 Stunden pro Woche, in den Semesterferien kannst du gerne deine Stunden erhöhen), Arbeitszeiterfassung sowie die Möglichkeit zum mobilen Arbeiten – du gestaltest deinen Arbeitstag.
* Triff deine Kolleg:innen in unserem Work Café, zieh dich für ungestörtes Arbeiten in ein ruhiges Büro zurück oder arbeite auch mal draußen in der Sonne – WLAN auf dem ganzen Campus und New Work machen es möglich.
* Erlerne praktische Einblicke in moderne Data Engineering- und DevOps-Prozesse eines wachsenden Energieunternehmens und mit der Möglichkeit, dich in aktuelle Tools und Technologien einzuarbeiten & aktiv an Lösungen mitzuarbeiten.
* Deine Meinung zählt – jede:r im Team ist ein wertvolles und gleichwertiges Mitglied.
* Wir sind verkehrsmäßig gut angebunden, egal, ob du mit der Bahn oder dem Auto kommst.
* Barista, Obst- und Gemüseboxen, Bio-Müsli, Kantine, Essensautomat – bei uns ist für jeden Geschmack etwas dabei.
Dein Profil:
* Du bist eingeschriebener Studierender (m/w/d) im Bereich (Wirtschafts-)Informatik, Ingenieurwissenschaften, Mathematik, Naturwissenschaften oder einem vergleichbaren Studiengang.
* Du hast Interesse an Data Engineering, DevOps und Automatisierung – erste private oder Uni-Projekte mit Python, Bash, Datenbanken oder Cloud-Tools sind ein Plus, aber keine Voraussetzung.
* Du bist bereit, dich in neue Tools und Themen wie Datenpipelines, Monitoring, Cloud-Services, Automatisierungsskripte und Dokumentation einzuarbeiten.
* Du bringst ein solides Grundverständnis für Datenstrukturen, Datenflüsse und technische Abläufe mit.
* Deine sorgfältige, strukturierte Arbeitsweise und deine Lust auf eigenständige Problemlösung runden dein Profil ab.
* Du verstehst es im Team zu arbeiten, bist zuverlässig und kommunizierst klar und verständlich.