Ihre Aufgaben:
* Modernisierung der Datenbankinfrastruktur bzw. des Data-Warehouse, um hierauf aufbauend sukzessive Automatisierungs- und KI-Lösungen und Tools für verschiedene Analysen und Prüfungen zu implementieren
* Python-Programmierung
* Aufbau robuster Datenpipelines, die aus rohen Daten wertvolle Insights generieren
* Entwicklung und Aufbau der Infrastruktur, um datengetriebene Entscheidungen treffen zu können
* Aufbau und Weiterentwicklung eines zentralen Data-Vault Datawarehouse-Systems
* Konzeption, Implementierung und Automatisierung von Datenpipelines (ETL/ELT) mit Apache NiFi, dbt und Python
Ihre Qualifikationen:
* Abgeschlossene Ausbildung zum Fachinformatiker für Anwendungsentwicklung, abgeschlossenes Studium mit Informatikbezug oder Quereinsteiger mit entsprechendem Know-How
* Fundierte Kenntnisse in der datengetriebenen Softwareentwicklung mit Python
* Erfahrung in der Frontend- und Backend-Entwicklung
* Kenntnisse in Django/HTMX von Vorteil
* Erste Erfahrung im Bereich Data Engineering, Datenbanken, ETL und/oder Data Warehouse
* Kenntnisse mit Apache NiFi und dbt von Vorteil
Ihre Vorteile:
* Ein extrem spannendes und hochkomplexes Betätigungsfeld
* Attraktive Weiterentwicklungsmöglichkeiten
* 38-Stunden-Woche
* Remote-Work möglich
* Jobrad
* Gute Erreichbarkeit mit dem Auto und dem ÖPNV
* Individuelle Absprachen zu Benefits möglich