Inserat online seit: 5 August
Beschreibung
Jobbeschreibung
In einer Welt, die von Informationen regelrecht überflutet wird, sind unsere Fachleute für den Datenrekurs verantwortlich, um Daten intelligent zu verknüpfen und wertvolle Erkenntnisse zu gewinnen.
Wir setzen uns für einen unabhängigen, überparteilichen und kritischen Journalismus ein. Mit unserer Arbeit tragen wir jeden Tag dazu bei, unsere Demokratie zu schützen und die Medienlandschaft von Morgen zu gestalten.
Wir bauen es, wir laufen es:
* Du entwickelst und optimierst technische Lösungen innerhalb unserer Lake-House-Plattform in der GCP (Google Cloud Plattform).
* Du unterstützt unsere Weiterentwicklung der Plattform-Architektur und bringst deine Erfahrung in Entscheidungen zu technischen Designs und Best Practices ein.
* Du modellierst und entwickelst fachliche Anforderungen als relationale Datenmodelle mit dbt zur Unterstützung redaktioneller und geschäftlicher Entscheidungen.
* Du integrierst neue Datenquellen, z.B. aus APIs mit Python.
Was du mitbringst
* Du hast mehrjährige Erfahrung im Bereich Data Engineering, Business Intelligence oder Data Warehousing.
* SQL beherrschst du sicher – idealerweise hast du auch Erfahrung im Umgang mit Data-Warehouses und der Verarbeitung großer Datenmengen.
* Du arbeitest routiniert mit Python und bist vertraut im Umgang mit APIs.
* Erfahrung mit Cloud-Plattformen (z. B. AWS, Azure, GCP) und Interesse an modernen Lake-House-Architekturen.
* Themen wie Data-Governance, Testing und Datenkataloge sind dir bekannt.