Das erwartet Dich bei uns
1. ETL-Entwicklung Du konzipierst, implementierst und optimierst robuste Datenpipelines für strukturierte und semi-strukturierte Daten – vom Quellsystem bis ins Lakehouse.
2. Lakehouse-Aufbau & -Betrieb Du gestaltest Medallion-Architekturen (Bronze/Silver/Gold), verwaltest Delta- oder Iceberg-Tabellen und bindest verteilte Storage-Backends effizient ein.
3. Starburst / Trino Administration Du stellst die Abfrageschicht für interaktive und Batch-Analysen bereit, inkl. Tuning sowie Umsetzung von Sicherheits- und Zugriffskonzepten.
4. SQL-Entwicklung & Performance-Tuning Du schreibst komplexe analytische Abfragen, analysierst Query-Pläne und optimierst Partitionierung, Caching und Indizes für maximale Performance.
5. Containerisierung & Orchestrierung Du paketierst Services mit Docker und orchestrierst Deployments automatisiert in Kubernetes – z. B. mit Helm oder Kustomize in Git-basierten CI/CD-Pipelines.
6. Testautomatisierung & Qualitätssicherung Du baust Test-Suites auf (Unit-, Integration-, End-to-End) mit Tools wie PyTest, dbt oder Great Expectations und etablierst Monitoring- und Alerting-Strukturen.
7. Dokumentation & Wissenstransfer Du erstellst verständliche Architekturbeschreibungen, Runbooks und gibst dein Wissen aktiv in internen Workshops weiter
Das bieten wir Dir
8. Ein jährliches Gehalt zwischen 65.000 € und 72.000 €
9. Maximale Flexibilität durch die Möglichkeit 100% Remote zu arbeiten
10. Start: 1. August 2025
11. Ende: mindestens 31. Dezember 2025 (Verlängerungsoption)
12. Auslastung: Vollzeit, 40 Stunden pro Woche
13. Arbeitsort: 100 % Homeoffice; gelegentliche Präsenztage nach Bedarf. In den ersten ein bis zwei Wochen ist eine intensivierte Einarbeitung vor Ort gewünscht.
14. Durch eine sehr gute Anbindung an die öffentlichen Verkehrsmittel, ist Dein Arbeitsort ideal zu erreichen
15. Mit uns sammelst Du Erfahrung und baust durch verschiedene Projekte Dein berufliches Netzwerk bei verschiedenen Kunden auf
16. Nutze Deine Chance auf eine attraktive Prämie von bis zu 2.000 Euro für unser „Recruit a Friend“-Programm
17. Wir geben Dir innerhalb von 48 Stunden eine Rückmeldung auf Deine Bewerbung
Das bringst Du mit
18. Du hast mehrjährige Erfahrung in der ETL-Entwicklung mit Python – idealerweise mit Spark, PySpark oder vergleichbaren Engines.
19. Darüber hinaus verfügst Du über ein fundiertes Verständnis moderner Lakehouse-Architekturen und kennst dich mit verteiltem Dateispeicher wie Delta Lake oder Apache Iceberg gut aus
20. SQL ist Deine Stärke – inklusive komplexer Abfragen, Window Functions und Common Table Expressions (CTEs)
21. Du arbeitest routiniert mit Docker und betreibst sowie skalierst Anwendungen in Kubernetes-Clustern
22. Du hast Erfahrung mit Starburst, Trino oder Presto als performante Query-Engines
23. Du bist vertraut mit Testautomatisierung, Versionsverwaltung (Git) und modernen CI/CD-Pipelines
24. Du sprichst fließend Deutsch und kannst Dich auch auf Englisch gut verständigen, z. B. in der technischen Dokumentation oder im Austausch mit internationalen Teams
25. Wenn du dich hier siehst, dann bewirb dich jetzt !