Unser Kunde ist ein inhabergeführtes Technologieunternehmen im Umfeld von Healthcare, KI-gestützten Serviceprozessen und digitalen Assistenzsystemen. Das Unternehmen entwickelt intelligente Lösungen, die Serviceorganisationen effizienter machen und Kundenerlebnisse messbar verbessern. Technologische Exzellenz trifft hier auf eine familiäre Unternehmenskultur: flache Hierarchien, kurze Entscheidungswege und direkte Kommunikation. Mitarbeitende gestalten aktiv mit und übernehmen Verantwortung – unabhängig von Titel oder Betriebszugehörigkeit. Zur Weiterentwicklung KI-basierter Service- und Wissenslösungen suchen wir einen AI Engineer (m⁠/⁠w⁠/⁠d) mit Fokus auf Python und Large Language Models. Sie entwickeln keine Prototypen für die Schublade – Sie bauen produktive KI-Anwendungen. Ihr Fokus liegt auf: Strukturierung von Daten und Wissensquellen Integration von Large Language Models in reale Systeme Entwicklung intelligenter Assistenzlösungen für Serviceprozesse Ob Chatbot, internes Wissenssystem oder „Sprechen mit Daten“ – Sie sorgen dafür, dass KI nicht nur funktioniert, sondern echten Mehrwert liefert. Arbeitsmodell: Remote-Anteil möglich Regelmäßige Präsenz in der Region Weiden erforderlich Zusammenarbeit in interdisziplinären Teams Ihre Aufgaben: Entwicklung und Integration von LLM-basierten Anwendungen in produktive Umgebungen Konzeption und Implementierung von RAG-Architekturen Strukturierung, Aufbereitung und Anbindung interner und externer Datenquellen Entwicklung von Python-basierten Schnittstellen und Services Prompt Engineering sowie systematische Optimierung von Modellantworten Aufbau von Evaluierungs- und Qualitätssicherungsprozessen für KI-Systeme Performance-Messung anhand definierter KPIs Dokumentation von Architektur, Entscheidungslogik und Modell-Setups Enge Zusammenarbeit mit Service- und Fachbereichen zur Entwicklung praxisnaher Use Cases Profil: Diese Rolle richtet sich nicht nur an „LLM-Spezialisten“, sondern an technisch starke Entwickler mit KI-Affinität. Sie passen gut, wenn Sie: sicher mit Python arbeiten Erfahrung in API-Integration und Backend-Logik mitbringen sich mit LLMs (z. B. OpenAI, Open-Source-Modelle) beschäftigt haben RAG-Konzepte verstehen oder bereits umgesetzt haben mit strukturierten und unstrukturierten Daten arbeiten können analytisch denken und Systeme ganzheitlich betrachten Von Vorteil, aber kein Muss: Erfahrung mit Vektor-Datenbanken Kenntnisse in Frameworks wie LangChain, LlamaIndex o. Ä. Erfahrung im produktiven Betrieb von KI-Anwendungen Wichtiger als ein perfekter Lebenslauf ist ein gutes technisches Fundament und die Bereitschaft, Verantwortung für funktionierende Lösungen zu übernehmen. Warum diese Position spannend ist: Sie arbeiten nicht im Forschungslabor, sondern an produktiven KI-Systemen Sie gestalten reale Serviceprozesse mit messbarem Impact Sie arbeiten in einem Umfeld mit schnellen Entscheidungswegen Sie erhalten Gestaltungsfreiheit statt Ticketabarbeitung Wenn ich Ihr Interesse geweckt habe, dann freue ich mich über Ihre Bewerbung! Viele Grüße Sarra Mezni Senior Consultant sarra.mezni@de.experis.com 01756722497