DEINE ROLLE
* Enterprise-AI-Architektur betreiben: Du entwickelst und betreibst skalierbare Plattformarchitekturen für ML-, LLM- und agentische Workloads im Enterprise-Kontext.
* Infrastruktur automatisieren: Du implementierst Infrastructure-as-Code-Konzepte für reproduzierbare AI-Umgebungen über mehrere Stages hinweg.
* AI-Workloads orchestrieren: Du betreibst containerisierte Trainings-, Inferenz- und MCP-Server-Workloads auf Kubernetes- oder Cloud-nativen Plattformen.
* Sicherheits- und Zugriffskonzepte umsetzen: Du implementierst IAM-, Secrets-Management-, Netzwerk- und Mandantenfähigkeitskonzepte auf Plattformebene.
* Self-Service ermöglichen: Du stellst standardisierte Laufzeitumgebungen und Schnittstellen bereit, die von Data-, ML- und GenAI-Teams effizient genutzt werden können.
DEIN PROFIL
* Ausbildung & Erfahrung: Du verfügst über ein abgeschlossenes Studium in Informatik, Software Engineering, IT-Systemtechnik oder einem vergleichbaren technischen Fachgebiet und mindestens 5 Jahre Erfahrung im Aufbau und Betrieb produktiver Cloud- oder AI-Plattformen im Enterprise-Umfeld.
* Fachwissen in Plattformarchitekturen: Du verstehst Containerisierung, Cluster-Architekturen, Skalierungsmechanismen und serviceorientierte Integrationsmuster tiefgehend.
* Tech-Stack anwenden: Du arbeitest souverän mit Kubernetes, Terraform oder Pulumi, CI/CD-Toolchains und mindestens einer Hyperscaler-Cloud wie AWS, Azure oder GCP.
* strukturierte Arbeitsweise: Du denkst plattformorientiert, standardisierend und mit klarem Fokus auf Skalierbarkeit, Sicherheit und Wiederverwendbarkeit.
* Sprachkenntnisse: Du kommunizierst mündlich als auch schriftlich sicher und professionell auf Deutsch und Englisch.