Aufgaben
* Design, Implementierung und Testing skalierbarer GenAI-Services, Chatbots und autonomer Agenten mit modernen Frameworks
* Deployment, Betrieb und Optimierung von LLM-Infrastrukturen on-premise (insbesondere Docker und Kubernetes ) inkl. Performance- und Ressourcenmanagement
* Umsetzung von Security-by-Design und Sicherstellung der Einhaltung strenger Sicherheits- und Compliance-Vorgaben im Defence-Umfeld
* Entwicklung und Optimierung von Retrieval-Augmented Generation (RAG) zur Anbindung interner Wissensdatenbanken
* Implementierung von Model Context Protocol (MCP)-Tools für standardisierte, sichere Schnittstellen zwischen KI-Modellen und internen Tools/Datenquellen
* Technischer Support, Troubleshooting sowie Erstellung technischer Dokumentation, Best Practices und Enablement für interne Nutzer
* Mitarbeit an der technischen Roadmap durch Proof-of-Concepts für neue KI-Use-Cases
Qualifikation
* Abgeschlossenes Studium (mind. Bachelor) der Informatik oder eine vergleichbare Qualifikation bzw. nachweisbare Praxis in KI / Data Science
* Mehrjährige Erfahrung in der Entwicklung von LLM-Anwendungen, Chatbots und Agenten
* Erfahrung mit Inference-Frameworks (z. B. vLLM, SGLang) und Vector-Datenbanken (z. B. Qdrant, Chroma)
* Gute Kenntnisse in Python sowie grundlegende Erfahrung mit RAG-Architekturen und MCP
* Gute Erfahrung in Docker und Kubernetes (Deployment, Scaling, Monitoring) in On-Premise-Umgebungen
* Deutschkenntnisse verhandlungssicher (mind. C1); Englischkenntnisse fortgeschritten (mind. B2)
* Bereitschaft zu gelegentlichen Dienstreisen
* Eine gültige, uneingeschränkte Arbeitserlaubnis für die Europäische Union (kein Studentenvisum) zwingend notwendig