Wenn du Big Data Engineer in einem agilen Team bist, arbeitest du eng mit anderen Fachbereichen zusammen und bist an strategischen Unternehmensprojekten beteiligt. Für diese Rolle suchen wir einen qualifizierten DevOps Engineer, der unsere Big Data-Anwendungen auf Basis von Kubernetes und Red Hat OpenShift hinsichtlich sich ändernder Technologien, Sicherheits- und Kundenanforderungen weiterentwickelt. Du verantwortest die Planung und Implementierung von Operatoren sowie deren Deployment, Wartung und Betrieb. Desweiteren bist du für das Testen und die Durchführung von Changes verantwortlich. Anforderungen:Abschluss eines Studiums der Informatik oder einer vergleichbaren Studienrichtung;Lange einschlägige Berufserfahrung oder eine vergleichbare Qualifikation sowie Erfahrung in der Leitung von fachübergreifenden (Teil-)Projekten;Vereinigte Kenntnisse im Bereich von Big Data Systemen (Streaming und Batch), Datenhaltung in NoSQL, OpenSearch, Trino und S3; idealerweise kennst du dich auch mit Kubernetes und Red Hat OpenShift, Nvidia AI Enterprise und der Implementierung aus.Kenntnisse in den Werkzeugen Helm, Gitlab, ArgoCD und Grafana sowie in den agilen Arbeitsmethoden Scrum und Kanban;Grundkenntnisse in Python, Java oder Batchprogrammierung;Souveränität und ausgeprägtes Verhandlungsgeschick sowie hohe Affinität für neue Technologien, Usability und Design.Neben deinen Fähigkeiten als Entwickler erwarten wir von dir auch ein Engagement für unsere zukunftsweisenden Projekte. Wir wollen Dich unterstützen und entwicklungsmäßig fördern!Hast du Lust auf eine Herausforderung in einem dynamischen Umfeld? Dann bewirb dich jetzt!