DEINE ROLLE
1. Data Pipelines umsetzen: Du implementierst Data Pipelines, Data Ingest und Data Processing.
2. Analytics Plattformen entwickeln: Du entwickelst Container-basierte Analytics Plattformen und effiziente CI/CD Pipelines.
3. Business-Anforderungen umsetzen: Du setzt projektbasiert Business-Anforderungen mit Analytics Services von AWS, Azure und GCP oder etablierten On-Premises Big Data Technologien um.
4. Weiterbildung: Du bildest dich stetig in Technologien aus dem Cloud- und Software Engineering-Umfeld weiter, um unsere Kunden als professioneller Consultant zu beraten.
DEIN PROFIL
5. Leidenschaft für Daten: Mit viel Enthusiasmus eignest du dir neues Wissen zu Applikationen, Technologien und Tools im Data Analytics Kontext an
6. Erfahrung und Ausbildung: Du hast ein abgeschlossenes Studium (oder Vergleichbares) und bereits Erfahrungen mit dem Cloud Analytics Ökosystem (AWS, Azure, GCP) oder dem Big Data Ökosystem (Hadoop, Kafka, …) gesammelt.
7. Kenntnisse in der Softwareentwicklung: Du verfügst über Know-How in der Softwareentwicklung mit Java, Scala oder Python und hast erste Erfahrungen mit Buildtools und CI/CD Pipelines, wie z. B. Maven, Sbt, Git oder Gradle gesammelt
8. Verständnis von Cloud-Strategien: Du kannst Cloud-Strategien wie IaaS, PaaS, und SaaS einordnen und verstehst die unterschiedlichen Konzepte sowie IaC-Technologien (Terraform, Ansible, Puppet)
9. Sprachkenntnisse: Sehr gute Deutsch- und gute Englischkenntnisse