Aufgaben
Gestaltung, Implementierung und kontinuierliche Optimierung von AI-Governance-Frameworks inklusive Richtlinien, Prozessen und Verantwortlichkeitsstrukturen
Aufbau und Integration eines AI-Management-Systems (AIMS) in bestehende Governance- und Qualitätssysteme
Durchführung von Risikoanalysen und Impact-Assessments entlang des gesamten Lebenszyklus von KI-Systemen
Unterstützung beim Aufbau von AI-Governance-Strukturen wie Review- und Operations-Boards mit definierten Rollen und Eskalationspfaden
Vorbereitung und Durchführung interner Audits sowie Gap-Analysen im Hinblick auf AI-Regelwerke (z. B. EU AI Act, ISO 42001)
Entwicklung und Durchführung von Awareness- und Schulungsmaßnahmen für unterschiedliche Zielgruppen im Unternehmen
Beratung zur technischen und organisatorischen Umsetzung von Monitoring-, Dokumentations- und Kontrollmechanismen
Qualifikationen
Abgeschlossenes Studium im Bereich Informatik, Ingenieurwesen, Datenwissenschaft, Recht (Technologierecht) oder vergleichbar
Mindestens 3 Jahre Berufserfahrung in KI-Governance, Compliance, Risikomanagement oder verwandten Bereichen
Fundierte Kenntnisse relevanter Regularien und Normen (z. B. EU AI Act, ISO 42001, ISO/IEC 27001, DSGVO)
Erfahrung in der Entwicklung von Richtlinien, Risikoanalysen, Audits und Compliance-Prozessen im Technologiekontext
Kenntnisse in der Anwendung von Methoden zur Bewertung von KI-Risiken (z. B. Bias, Datenschutz, Nachvollziehbarkeit, Modellstabilität)
Ausgeprägte analytische Fähigkeiten und Fähigkeit zur Interpretation regulatorischer Anforderungen in praktische Unternehmensprozesse
Sehr gute Kommunikations- und Projektmanagementfähigkeiten; Erfahrung in der Arbeit mit interdisziplinären Teams
Gute Deutschkenntnisse (mindestens B1) sind von Vorteil