Unsere neu gegründete, direkt an die Unternehmensleitung angebundene KI-Einheit entwickelt produktive ML-Systeme, die diese Kernprozesse digitalisieren: von der computergestützten Vorbefundung medizinischer Proben über automatisierte Auftragserfassung bis zur standortübergreifenden Skalierung dieser Lösungen auf über 30 Labore.
Hybride LLM-Infrastruktur: Evaluation, Verknüpfung und produktiver Einsatz von lokalen vLLM-Inferenzclustern und kommerziellen API-Modellen. Neben unserem aktuellen Fokus auf den medizinischen Kernbereich evaluierst und implementierst du perspektivisch auch passgenaue ML-Architekturen für operative und kaufmännische Prozesse im gesamten Unternehmensverbund
ML-Pipelines, Monitoring & Retraining: Aufbau und Betrieb robuster Data- und ML-Pipelines. Du stellst sicher, dass unsere produktiv eingesetzten Modelle an den verschiedenen Laborstandorten performant laufen, kontinuierlich auf Data Drift gemonitort und qualitätsgesichert einem Retraining unterzogen werden. Erfahrung im "Agentic Engineering": Du hast nicht nur mit LLMs gechattet, sondern komplexe Workflows, State-Machines oder Multi-Agenten-Systeme programmatisch umgesetzt (idealerweise mit LangChain/LangGraph oder in purem Python) und weißt, wie man "Agentic Loops" in der Produktion stabil und berechenbar hält
Advanced Tech-Stack & Lokales LLM-Hosting : Hervorragende Python-Kenntnisse und sicherer Umgang mit dem ML-Ökosystem (HuggingFace, PyTorch o.ä.). Du beherrschst zudem strukturiertes Prompt-Engineering sowie die Bereitstellung von Modellen außerhalb von Cloud-APIs (vLLM, TGI) und wendest Konzepte wie KV-Cache, Quantisierung und Tensor Parallelism auf Multi-GPU-Setups sicher an
End-to-End MLOps & Automatisierte Evaluierung : Du hast ML-Modelle ausgerollt und anschließend betrieben, inklusive Fehleranalyse, Retraining und Weiterentwicklung nach dem Go-Live. Du nutzt Tracking- und Registrierungs-Frameworks (z. B. MLflow, Weights & Biases) sowie Model-Compiler (z. B. NVIDIA TensorRT) für den Betrieb und implementierst asynchrone Test-Pipelines sowie automatisiertes Benchmarking (z. B. LLM-as-a-Judge) zur Fehleranalyse und Qualitätssicherung
Praxis-Fokus: Nachweisbare Produktionserfahrung in Computer Vision, NLP/Dokumentenverarbeitung oder LLM-Integration
Kommunikationsstärke: Du besitzt die Fähigkeit, komplexe technische Systemdesign-Entscheidungen gegenüber Fachärztinnen und Fachärzten und dem Management verständlich, nutzenorientiert und auf Augenhöhe zu vertreten
Sprachkenntnisse: Fließendes Deutsch (mind. C1) für die interne Kommunikation und sicheres technisches Englisch
Du findest bei uns einen attraktiven und modern ausgestatteten Arbeitsplatz vor - inklusive direktem Zugriff auf ein dediziertes Bare-Metal GPU-Cluster im lokalen Rechenzentrum für ungehindertes, IVDR-konformes Prototyping
Direkte, interdisziplinäre Zusammenarbeit auf Augenhöhe mit der medizinischen Leitung (Product Owner) beim Ausbau und der Skalierung unserer ML-Architektur
Regelmäßige fachliche und organisatorische Entwicklungsmöglichkeiten stehen dir durch unsere Limbach Akademie zur Verfügung
Wir bieten dir flexible Arbeitszeiten mit der Möglichkeit zum mobilen Arbeiten
Ein unbefristetes Arbeitsverhältnis ist für uns selbstverständlich
Durch unsere gute Verkehrsanbindung kannst du uns auch mit unserem günstigen Deutschland-Ticket oder Dienstrad-Leasing gut erreichen
Wir bieten dir eine betriebliche Altersvorsorge inklusive Arbeitgeberzuschuss
Dir stehen in unserem Haus eine eigene Kantine und freie Getränke zur Verfügung
Regelmäßige Firmenveranstaltungen und Teamevents schaffen eine angenehme Teamatmosphäre