Das erwartet Dich:
Gemeinsam mit Deinem Team entwickelst Du eine skalierbare, cloud-fähige Microservice-Architektur zur Verarbeitung von Echtzeit- und Statistikdaten für unsere weltweiten Kunden aus dem ÖPNV – von der Streaming-Verarbeitung bis zur stabilen Offline-Auswertung.
1. Du entwickelst Java-basierte cloud-native Microservices zur Verarbeitung von:
Echtzeitdaten (Streaming) über Kafka sowie
statistischen Daten für die Offline-Verarbeitung im Oracle Data Warehouse
2. Als Schnittstelle zu unseren DevOps-Spezialist:innen treibst du den Ausbau des DevOps-Know-hows im Team aktiv voran
3. Du gestaltest Datenflüsse zwischen Kafka, Microservices und DWH und optimierst diese hinsichtlich Performance und Skalierbarkeit
4. In Deployment-, Release- und Betriebsfragen bringst du dich aktiv ein und arbeitest mit CI / CD – Pipelines, Konfigurations- und Skalierungsmechanismen sowie Rollbacks
5. Du unterstützt bei der Weiterentwicklung unserer Kubernetes-Deployments (u. a. Helm Charts, Ressourcen-Definitionen, Skalierungsstrategien)
6. Mithilfe von Monitoring- und Logging analysierst du produktive Datenströme und Systeme und unterstützt so bei Support-Anfragen
State-of-the-Art Technologien, die bei uns zum Einsatz kommen:
Java mit Quarkus, Apache Kafka, REST, Oracle DWH, PostgreSQL, Kubernetes, Kubernetes-Operatoren für PostgreSQL, Kafka), Helm, CI/CD-Pipelines, Grafana, FluentBit und Loki. Die von Dir entwickelten Lösungen laufen in produktiven Systemen des weltweiten ÖPNV – sichtbar und relevant im Alltag
Das bringst Du mit:
7. Ein abgeschlossenes technisches Hochschulstudium (z. B. Informatik) oder eine Ausbildung mit entsprechender Berufserfahrung
8. Sehr gute Java-Kenntnisse sowie idealerweise Erfahrung mit Quarkus
9. Im Bereich Cloud und DevOps hast du bereits Know-how aufgebaut oder großes Interesse, insbesondere in Kubernetes (Deployments, Pods, Services, Ressourcen), Helm- bzw. YAML-basierten Deployments sowie CI/CD-Prozessen inklusive Releases und Rollbacks
10. Erfahrung oder starkes Interesse an Streaming- und Datenverarbeitung, z. B.:
Apache Kafka (Producer, Consumer, Topics, Partitions)
Verarbeitung von Echtzeitdaten und Übergang in Offline-/DWH-Strukturen
11. Skalierbare Systeme, stabile Produktionsumgebungen und Performance-Optimierung begeistern dich ebenso wie komplexe technische Fragestellungen – von der Datenquelle bis zur Auswertung
12. Zudem bringst du die Bereitschaft mit, dich in die Domäne der Betriebs- und Echtzeitdaten des ÖPNV einzuarbeiten
13. Gute Deutsch- und Englischkenntnisse in Wort und Schrift
14. nice to have: Erfahrung mit Oracle DWH oder komplexen analytischen Datenmodellen sowie mit Kafka Streams oder ähnlichen Streaming-Frameworks
15. nice to have: Kenntnisse zu Skalierungsmechanismen wie Horizontal Pod Autoscaling, Ressourcen-Requests und Limits sowie Erfahrung mit ressourcenintensiven Batch- oder Transformationsjobs