Aufgaben:
Aktuell sind wir auf der Suche nach einem Databricks Cloud Developer, der flgende Aufgaben beim Kunden übernehme soll:
- Analyse der Projektanforderungen und Definition der technischen Spezifikationen.
- Entwicklung und Bereitstellung von Databricks-Workspaces in der Azure-Cloud.
- Erstellung generischer und skalierbarer Frameworks für datengetriebene Lösungen.
- Implementierung und Betrieb von Monitoring-Lösungen für Cloud-Umgebungen in Azure.
- Automatisierung von Deployments mittels Infrastructure-as-Code (IaC).
- Entwicklung wiederverwendbarer und skalierbarer Lösungen für datengetriebene Anwendungen.
- Aufbau und Pflege von Continuous Integration und Continuous Deployment (CI/CD) Pipelines.
- Programmierung und Datenverarbeitung mit Python, PySpark und SQL.
- Erstellung einer technischen Dokumentation.
Anforderungen:
Wohnort sollte ca. 150 km um Köln herum sein, 2 Tage die Woche vor Ort beim Kunden, Rest remote
Must have:
+ Databricks Expertise: Erfahrung in der Umsetzung von Lakehouse-Architekturen und
Bereitstellung von Databricks Workspaces.
+ Framework-Entwicklung: Fähigkeit zur Erstellung generischer, skalierbarer Lösungen
+ Betrieb (Cloud): Erfahrung im Betrieb und Monitoring von Cloud-Umgebungen (Azure)
+ Azure Infrastruktur & IaC: Sicherer Umgang mit Infrastructure-as-Code zur Automatisierung von
Deployments.
+ Generisch getriebene Ansätze: Fähigkeit, wiederverwendbare und skalierbare Lösungen zu
entwickeln
+ CI/CD Know-how: Aufbau und Pflege von Continuous Integration und Continuous Deployment
Pipelines.
+ Programmier- und Datenkompetenz: Sicherer Umgang mit Python, PySpark und SQL.
+ Sprachkenntnisse: Sehr gute Deutschkenntnisse für Kommunikation und Dokumentation
Zusätzliche Informationen:
Konnten wir Ihr Interesse wecken? Dann freuen wir uns auf die Zusendung Ihres aussagekräftigen Expertenprofils unter Angabe Ihrer Stundensatzvorstellung.