Aufgaben
* Betrieb und Entwicklung von Data & AI Plattformen und LLM-Umgebung
* Automatisierung von Daten- und Modellpipelines sowie Sicherstellung des Betriebs
* Implementierung von z.B. Monitoring-Systeme
* Weiterentwicklung der Prozesse und Etablierung von DataOps-Methoden zur Optimierung der Infrastruktur
* Übernahme der fachlichen Führung
Profil
* Erfahrung im Betrieb oder in der Entwicklung von IT-Infrastrukturen sowie Cloud Umgebung GCP
* Erfahrung mit Container-Technologien wie Docker oder Kubernetes
* Erfahrung mit Automatisierungstools wie Git, CI/CD oder Terraform
* Wünschenswert sind erste praktische Erfahrungen mit Tools aus dem DataOps- oder MLOps-Umfeld (z.?B. Airflow, MLflow, dbt)
* Fließende Deutsch- und Englisch-Kenntnisse
Benefits
* 32 Urlaubstage
* Flexible Arbeitszeiten und Home-Office-Regelung
* JobRad
* Bezuschusstes Deutschland- und regionales JobTicket
* Corporate Benefits
* Verschiedene Gesundheitsmaßnahmen
* Umfassende Weiterbildungsmöglichkeiten