Zum nächstmöglichen Zeitpunkt suchen wir Sie als MLOps Platform Engineer für den Standort Berlin.
Erfahrung, Qualifikation und Soft Skills, haben Sie alles, was Sie brauchen, um bei dieser Gelegenheit erfolgreich zu sein? Finden Sie es unten heraus.
Ihr Aufgabenbereich
Weiterentwicklung und Betrieb unserer MLOps Plattform, einschließlich Cloud-Ressourcen und lokaler Server
Implementierung von Monitoring-Lösungen zur Überwachung von Performance und Status der bereitgestellten Modelle
Optimierung der ML-Infrastruktur im Hinblick auf Skalierbarkeit und Kosteneffizienz
Entwicklung und Pflege von CI/CD-Pipelines zur Automatisierung von Test, Integration und Bereitstellung von ML-Modellen
Anwendung bewährter Sicherheitspraktiken, um sowohl die Modelle als auch die von ihnen verarbeiteten Daten zu schützen
Enge Zusammenarbeit mit Data Scientists, Software Engineers und anderen Stakeholdern, um Modellanforderungen und Systembeschränkungen zu verstehen
Umfassende Dokumentation von Bereitstellungsprozessen, Konfigurationen und Systemarchitekturen
Ihr Profil
Erfolgreich abgeschlossenes Studium der Informatik bzw. einer vergleichbaren Studienrichtung alternativ eine IT-technische Berufsausbildung mit einschlägiger Berufserfahrung
Expertise im Umgang mit Docker/Kubernetes; idealerweise Erfahrung mit Red Hat Openshift
Erfahrung mit MLOps-Paradigmen und MLOps-Tools wie Airflow, Kubeflow, MLFlow etc.
Praktische Erfahrung mit KI-Frameworks wie (TensorFlow, PyTorch) und Libraries (Transformers, DeepSpeed, etc.)
Solide Kenntnisse in Python, SQL, Bash und anderen Skriptsprachen, die für die Arbeit mit KI und Sprachmodellen unerlässlich sind
Selbstmotiviert, multitaskingfähig und ein ausgewiesener Teamplayer
Hervorragende Kommunikationsfähigkeiten