Damit überzeugen wir dich
* Entwicklung von End to End Datenservices im Data Warehouse mit Python und SQL in der Azure Data Platform und Databricks
* Entwicklung und Automatisierung von Datenbeladungsprozessen in der Azure Data Factory und Databricks
* Nutzung und Pflege von Datenstrukturen im Unity Catalog
* Beladung der Daten-Zugriffsschicht in Snowflake
* Anbindung von neuen Datenquellen an das Data Warehouse
* Entwicklung von Reporting - und Analysedatamarts für unsere Analyst:innen und Data Scientists.
* Monitoring der automatisierten Datenprozesse
* Zusammenarbeit mit interdisziplinären Teams in einem datengetriebenen Umfeld
* Abstimmung mit unseren Stakeholdern, z.b. für Anforderungsdefinition oder Wissenstransfer
* Ein agiles, sympathisches und positives Team und Umfeld
Damit überzeugst du uns
* Du hast (idealerweise langjährige) Erfahrung in der Entwicklung von Datenservices.
* Du hast Erfahrungen mit Azure, der Google Cloud oder AWS
* Du hast Erfahrung in der Verarbeitung von großen Datenmengen in unterschiedlichen Datenformaten
* Du bist leidenschaftliche:r Entwickler:in und beherrschst SQL und Python
* Du kennst dich mit Azure Databricks oder anderen Big Data Technologien aus
* Du bist serviceorientiert und hast Lust, dich mit modernen Datentechnologien zu beschäftigen
* Du kennst dich mit gängigen Datenbankarchitekturen, wie DataVault oder dem Sternschema aus
* Continuous Deployment und eine agile Arbeitsweise passen zu dir und deinen Skills
* Du verfügst über ein abgeschlossenes Studium im Bereich (Wirtschafts-)informatik, Data Science oder einer anderen relevanten Fachrichtung