DEINE ROLLE
* Data-Pipelines umsetzen: Du konzipierst und implementierst robuste Data-Pipelines, Data Ingest und Data-Processing auf Basis von Open-Source-Komponenten wie Apache Airflow, Kafka, Spark oder Trino und sorgst dafür, dass Daten zuverlässig, performant und nachvollziehbar fließen.
* Analytics-Plattformen entwickeln: Du entwickelst containerbasierte Analytics-Plattformen und entwirfst effiziente CI/CD-Pipelines auf Basis von Kubernetes, sodass neue Features und Änderungen sicher und automatisiert in Produktion gelangen.
* Plattformen bereitstellen & automatisieren: Du verantwortest das automatisierte Deployment der Analytics-Plattformen – z. B. mit Helm-Charts und Tools wie ArgoCD – und stellst sicher, dass Deployments reproduzierbar und stabil sind.
* Plattformen betreiben & absichern: Du integrierst Datenplattformen in bestehende Kundenlandschaften, inklusive IAM, Monitoring und Logging, und trägst so aktiv zu Stabilität, Sicherheit und Transparenz der Lösungen bei.
* Business-Anforderungen in Data-Products übersetzen: Gemeinsam mit unseren Kunden verstehst du fachliche Anforderungen und setzt sie mit Open-Source-Analytics-Services auf Kubernetes-Basis um – mit dem Ziel, unsere Kunden auf ihrem Weg zur Datensouveränität ganzheitlich zu begleiten.
* Lernen & Wissen teilen: Du hältst dein Wissen im Cloud-, Data- und Software-Engineering-Umfeld kontinuierlich aktuell, probierst neue Technologien aus und gibst deine Erfahrungen im Team und beim Kunden weiter – z. B. in Projekten, Communities oder internen Formaten.
DEIN PROFIL
* Ausbildung & Erfahrung: Du bringst ein abgeschlossenes Studium (oder eine vergleichbare Qualifikation) mit und hast bereits praktisch mit Komponenten wie Spark, Kafka, Airflow o. Ä. gearbeitet – idealerweise in produktionsnahen Projekten.
* Kubernetes Know-How: Du hast praktische Erfahrung im Umgang mit Kubernetes (z. B. Deployment-/Service-Definitionen, Umgang mit Secrets, Helm-Charts) und hast Spaß daran, containerisierte Anwendungen und Plattformen zu bauen.
* Kenntnisse in der Softwareentwicklung: Du verfügst über solide Programmierkenntnisse in Java, Scala oder Python und hast bereits mit Build- und CI/CD-Tools wie Maven, sbt, Gradle, Git oder ähnlichen Werkzeugen gearbeitet.
* Verständnis für Cloud- und Infrastrukturkonzepte: Begriffe wie IaaS, PaaS und SaaS kannst du einordnen, und du hast erste Erfahrungen mit Infrastructure-as-Code-Ansätzen (z. B. Terraform, Ansible oder Puppet), um Infrastruktur reproduzierbar und versionierbar aufzubauen.
* Leidenschaft für Daten & moderne Plattformen: Du hast Freude daran, komplexe Datenlandschaften zu verstehen, neue Technologien im Data- und Analytics-Umfeld auszuprobieren und Lösungen end-to-end mitzugestalten.
* Sprachkenntnisse: Deine sehr guten Deutsch- und guten Englischkenntnisse ermöglichen dir eine sichere Kommunikation.