Salary: 50.000 - 80.000 € per year Requirements: Du hast ein Informatikstudium oder einen vergleichbares Studium absolviert oder hast eine fachspezifische Ausbildung im Softwareentwicklungsumfeld sowie mehrjähriger Berufserfahrung. Erfahrung mit dem Aufbau und Betrieb von on‑prem oder self‑managed Cloud‑Native-Plattformen Praktische Erfahrung mit Kubernetes‑Ökosystemen (zum Beispiel Talos, kubeadm‑basierte Cluster, Rancher, Metal³/Ironic) Fundierte Kenntnisse in Hochverfügbarkeits-Szenarien (HA-Szenarien), DR, BCM sowie Netzwerk‑ und Storage‑Architekturen in verteilten Systemen Erfahrung mit dem Aufbau und Betrieb von Daten‑ und Streaming‑Plattformen, idealerweise auf Basis des Kafka‑Ökosystems (Kafka Connect, Schema Registry, Kafka Streams / KSQL). Erfahrung in mindestens einem der folgenden Bereiche: - GitOps (zum Beispiel ArgoCD, Flux) - IaC (zum Beispiel Terraform, Crossplane, Ansible) - Policy as Code (zum Beispiel OPA/Gatekeeper, Kyverno) - Observability (beispielsweise Prometheus, Loki, Grafana, OpenTelemetry) Freude daran, OT‑Datenflüsse und Fachanwendungen technisch zu ermöglichen und moderne Plattform‑ sowie Hyperscaler‑Prinzipien von Grund auf gemeinsam im Team zu definieren Responsibilities: Du bist aktiv am Aufbau, der Weiterentwicklung und dem Betrieb einer on‑prem, self‑hosted, air gapped Cloud‑Native-Plattform beteiligt, die über mehrere Rechenzentren verteilt betrieben wird. Im besonderen Fokus steht die Bereitstellung von Fachanwendungen, die Daten aus unseren OT‑Systemen zuverlässig, sicher und in Echtzeit einholen, verarbeiten und für nachgelagerte Systeme und Tools verfügbar machen. Du nutzt GitOps, Policy-as-Code (PaC) und Diagram-as-Code, um den gewünschten Zustand der Plattform zu spezifizieren und automatisiert sicherzustellen. Wir befinden uns aktuell im Aufbau und evaluieren Werkzeuge wie zum Beispiel ArgoCD, Flux (GitOps), OPA Gatekeeper, Kyverno (PaC), C4‑Modellierung und Structurizr (Diagram-as-Code). Du entwickelst und betreibst Daten‑Ingestion‑Pipelines und Event‑Streaming‑Infrastrukturen auf Basis moderner Open‑Source‑Technologien – zum Beispiel aus dem Kafka‑Ökosystem (Kafka Connect, Schema Registry, Kafka Streams / KSQL). Damit stellst du sicher, dass OT‑Daten aus kritischen Infrastruktursystemen in Echtzeit, versionssicher, auditierbar und hochverfügbar für Fachanwendungen bereitstehen. Du verwendest moderne Technologien, um Cluster neu zu erstellen, anstatt zu aktualisieren, was eine nahtlose Umsetzung von Disaster Recovery (DR) und Business Continuity Management (BCM) ermöglicht. Als mögliche Toolchain evaluieren wir aktuell unter anderem Talos, kubeadm, Metal³ und Rancher für Cluster Lifecycle Management. Du arbeitest eng mit Entwicklerinnen und Entwicklern, Citizen Developern und externen Partnern zusammen, um sichere, robuste und verteilte Services, Fachapplikationen und Algorithmen zu ermöglichen. Technologies: Ansible ArgoCD Cloud GitOps Grafana Kafka Kubernetes OpenTelemetry Prometheus Terraform DevOps More: Wir sind ein Übertragungsnetzbetreiber, der die Stromversorgung für rund elf Millionen Menschen in Baden-Württemberg sichert. Unser Team im Bereich Systembetrieb verantwortet rund um die Uhr den sicheren, umweltgerechten und effizienten Betrieb des Übertragungsnetzes und der Regelzone von TransnetBW. Derzeit bauen wir eine eigene Cloud‑Native-Plattform auf, die spezifisch für KRITIS‑Anforderungen entwickelt wird. Wir suchen motivierte Talente, die in einem innovativen Umfeld mit viel Gestaltungsspielraum arbeiten und die IT-Systeme unseres Stromnetzes maßgeblich weiterentwickeln wollen. last updated 12 week of 2026