Das kann der Job
1. Du bist aktiv am Aufbau, der Weiterentwicklung und dem Betrieb einer on‑prem, self‑hosted, air‑gapped Cloud‑Native Plattform beteiligt, die über mehrere Rechenzentren verteilt betrieben wird. Im Fokus liegt insbesondere die Bereitstellung von Fachanwendungen, die Daten aus unseren OT‑Systemen zuverlässig, sicher und in Echtzeit einholen, verarbeiten und für nachgelagerte Systeme und Tools verfügbar machen.
2. Du nutzt GitOps, Policy-as-Code und Diagram-as-Code, um den gewünschten Zustand der Plattform zu spezifizieren und automatisiert sicherzustellen. Wir befinden uns aktuell im Aufbau und evaluieren Werkzeuge wie ArgoCD oder Flux (GitOps), OPA/Gatekeeper oder Kyverno (Policy as Code) sowie C4‑Modellierung oder Structurizr (Diagram as Code).
3. Du entwickelst und betreibst Daten‑Ingestion‑Pipelines und Event‑Streaming‑Infrastrukturen auf Basis moderner Open‑Source‑Technologien wie z.B. aus dem Kafka‑Ecosystem (Kafka, Connect, Schema Registry, KStreams/KSQL). Damit stellst du sicher, dass OT‑Daten aus kritischen Infrastruktursystemen in Echtzeit, versionssicher, auditierbar und hochverfügbar für Fachanwendungen bereitstehen.
4. Du verwendest moderne Technologien, um Cluster neu zu erstellen statt zu aktualisieren, was eine nahtlose Umsetzung von Disaster Recovery und Business Continuity (BCM) ermöglicht. Als mögliche Toolchain evaluieren wir aktuell u.a. Talos, kubeadm, Metal³ oder Rancher für Cluster Lifecycle Management.
5. Du arbeitest eng mit EntwicklerInnen, Citizen Developern und externen Partnern zusammen, um sichere, robuste und verteilte Services, Fachapplikationen und Algorithmen zu ermöglichen.
Das kannst Du
6. Du hast ein Informatikstudium (oder einen verwandten Studiengang) absolviert oder hast eine fachspezifische Ausbildung im Softwareentwicklungsumfeld mit entsprechender mehrjähriger Berufserfahrung
7. Erfahrung mit dem Aufbau und Betrieb von on‑prem oder self‑managed Cloud‑Native Plattformen
8. Praktische Erfahrung mit Kubernetes‑Ökosystemen (z. B. Talos, kubeadm‑basierte Cluster, Rancher, Metal³/Ironic)
9. Fundierte Kenntnisse in HA‑Szenarien, DR, BCM sowie Netzwerk‑ und Storage‑Architekturen in verteilten Systemen
10. Erfahrung mit dem Aufbau und Betrieb von Daten‑ und Streaming‑Plattformen, idealerweise auf Basis des Kafka‑Ökosystems (Kafka, Connect, Schema Registry, KStreams/KSQL).
11. Erfahrung in wenigstens einem der folgenden Bereiche:
12. GitOps (z.B. ArgoCD, Flux)
13. IaC (z.B. Terraform, Crossplane, Ansible)
14. Policy as Code (z.B. OPA/Gatekeeper, Kyverno)
15. Observability (z.B. Prometheus, Loki, Grafana, OpenTelemetry)
16. Freude daran, OT‑Datenflüsse und Fachanwendungen technisch zu ermöglichen und moderne Plattform‑ sowie Hyperscaler‑Prinzipien von Grund auf mitzudefinieren.
Dich erwartet
17. Ein Team, das Großes bewegt, und eine zukunftsweisende Aufgabe: die IT-Systeme und Applikationen unseres Stromnetzes maßgeblich weiterentwickeln
18. Ein Projekt in der Pionierphase mit viel grüner Wiese, weitreichendem Gestaltungsspielraum und viel Verantwortung
19. Offene, direkte Kommunikation und eine respektvolle Zusammenarbeit auf Augenhöhe
20. Die Sicherheit eines etablierten Unternehmens mit einer klaren Vision für die Energiewende
Du erfüllst nicht alle Anforderungen? Kein Problem.
Uns ist bewusst, dass kaum jemand alle Technologien oder Themenfelder vollständig abdeckt. Wichtiger ist uns deine Leidenschaft für moderne Plattform‑ und Cloud‑Native‑Ansätze, deine Bereitschaft, dich gemeinsam mit uns weiterzuentwickeln und aktiv zur Gestaltung unserer Cloud Native Plattform im KRITIS Umfeld beizutragen.
Die Stelle erfordert eine Hintergrund- und eine Sicherheitsüberprüfung. Sollten Sie vorab Fragen haben, können Sie sich gerne an die benannte Ansprechperson bei TransnetBW wenden.
Ihr Kontakt
TransnetBW GmbH
Alexander Weinmann
Heilbronner Str. 51-55
70191 Stuttgart