Unternehmensbeschreibung
Wir fördern Dein persönliches Wachstum, gemeinsamen Erfolg und neue Innovationen.
Devoteam ist ein führendes Technologieberatungsunternehmen für digitale Transformation und Cloud-Innovation. Als globaler AWS Premier Consulting Partner unterstützen wir mit über 11.000 Experten Unternehmen bei ihrer digitalen Transformation.
Unsere Data & Analytics Practice entwickelt moderne Datenarchitekturen und intelligente Geschäftslösungen. Im Data Engineering Team transformierst du komplexe Datenlandschaften und baust skalierbare Analytics-Plattformen mit AWS Cloud Services und Snowflake.
Als AWS/Snowflake Senior Data Engineer (m/w/d) wirst du zum technischen Experten und Mentor. Du realisierst komplexe Data Lake- und Warehouse-Lösungen und gestaltest die nächste Generation von Analytics-Plattformen. In enger Zusammenarbeit mit Kunden agierst du als strategischer Berater, teilst dein Wissen und entwickelst innovative, cloud-native Datenplattformen mit messbarem Geschäftserfolg. Wir suchen kreative Problemlöser, die strategisch über Datenarchitekturen nachdenken und bestehende Prozesse herausfordern.
#AI DRIVEN TECH CONSULTING
Deine Benefits
* Moderne Büros in Toplage in Frankfurt und München
* Hybrid Working mit der Möglichkeit, Deine Arbeitszeiten und Arbeitsorte individuell auf Deine Bedürfnisse anzupassen
* Unsere Devoteam Academy bietet Dir ein großes Angebot an zertifizierten Trainings und Sprachkursen
* Internationale Entwicklungsmöglichkeiten für Deinen Karriereboost bei Devoteam
* Gaming-Lounge für Deine kreative Pause zwischen Meetings und Calls
* Get-Together Partys und Teamevents für den regelmäßigen Austausch und Spaß mit Deinen Kollleg:innen
* Mitarbeiter:innen-Prämien beim Werben von neuen Mitarbeiter:innen
* Moderne IT-Ausstattung - Wähle aus einer Vielzahl von Möglichkeiten das für Dich passende Produkt
* Corporate Benefits mit großer Auswahl an zahlreichen Angeboten für nahezu jeden Bereich
* Jobrad und Firmenwagen Angebot mit attraktiven steuerlichen Vorteilen für Dich
* Betriebliche Altersvorsorge, Direktversicherungen und vermögenswirksame Leistungen stehen Dir als Zusatzleistungen zur Verfügung
* Integration Day inkl. Mentorenprogramme für Deinen perfekten Start bei Devoteam
Stellenbeschreibung
KEY JOB RESPONSIBILITIES
* Modern Data Platform Architecture: Konzeption und Implementierung skalierender Data Lake und Data Warehouse Architekturen mit AWS Services (Redshift, Glue, EMR, Kinesis) und Snowflake als zentrale Analytics Engine
* Data Pipeline Engineering: Entwicklung hochperformanter, fault-toleranter ELT/ETL-Pipelines mit modernen Frameworks wie Apache Spark, dbt und AWS Step Functions für komplexe Datenverarbeitungsworkflows
* Snowflake Platform Optimization: Design und Implementierung von Snowflake Data Models, Performance-Tuning, Multi-Cluster Warehouses und Advanced Features wie Data Sharing und Secure Data Exchange
* Real-time Analytics Solutions: Implementierung von Streaming Analytics Plattformen mit Kinesis, Kafka und Snowflake Streams für Echtzeit-Datenverarbeitung und Live-Dashboarding
* Data Integration & Migration: Planung und Durchführung komplexer Datenmigrationsprojekte von Legacy-Systemen zu modernen Cloud Data Platforms mit minimaler Ausfallzeit
* DevOps for Data: Aufbau von DataOps-Praktiken mit Infrastructure as Code (Terraform, CloudFormation), CI/CD-Pipelines für Datenverarbeitung und automatisiertem Testing von Data Pipelines
* Performance Engineering: Optimierung von Datenverarbeitungsworkflows, Query-Performance Tuning und Cost Optimization für große Datenvolumen in Cloud-Umgebungen
* Technical Consulting: Beratung von Kunden bei Data Strategy, Technology Selection und Best Practices für moderne Data Governance und Compliance-Anforderungen
A DAY IN THE LIFE
Dein Tag beginnt oft mit einem Review der nächtlichen Data Pipeline Runs und Performance Monitoring Dashboards, um sicherzustellen, dass alle kritischen Datenflüsse erfolgreich ausgeführt wurden. Anschließend führst du ein Stand-up mit deinem Data Engineering Team durch, um den Fortschritt aktueller Implementierungen zu besprechen und eventuelle Issues zu adressieren.
Der Vormittag wird häufig von Technical Deep-Dive Sessions mit Kunden geprägt, in denen du komplexe Datenarchitekturen designst - sei es die Modernisierung eines legacy Data Warehouses oder die Implementierung einer Real-time Analytics Plattform mit Snowflake. Dabei arbeitest du eng mit Data Scientists und Business Analysts zusammen, um sicherzustellen, dass die technische Lösung auch die fachlichen Anforderungen optimal erfüllt.
Nachmittags konzentrierst du dich auf hands-on Development Work: Du entwickelst neue dbt Models, optimierst Spark Jobs für bessere Performance oder implementierst neue Snowflake Features für erweiterte Analytics Use Cases. Ein wichtiger Teil deiner Arbeit ist auch das Code Review und Mentoring von Junior Data Engineers - du teilst deine Expertise in technischen Diskussionen und leitest Workshops zu modernen Data Engineering Patterns.
Den Tag schließt du häufig mit der Arbeit an Innovation Projekten ab, wo du neue AWS Services oder Snowflake Features evaluierst, Proof-of-Concepts für ML-Pipeline Integration entwickelst oder an der Dokumentation von Best Practices und Learnings für das Team arbeitest.
Qualifikationen
BASIC
QUALIFICATIONS
* 4+ Jahre Erfahrung in Data Engineering, ETL/ELT-Entwicklung und Datenplattform-Implementierung mit AWS Services
* Nachgewiesene Snowflake-Expertise in Data Modeling, Performance Optimization, Administration und Advanced Features
* Solide AWS Data Services Kenntnisse (Redshift, Glue, EMR, Kinesis, Lambda, S3) und deren Integration in moderne Datenarchitekturen
* Programmier-Expertise in Python/Scala/SQL mit Erfahrung in Spark, dbt oder vergleichbaren Data Processing Frameworks
* Infrastructure as Code Kenntnisse (Terraform, CloudFormation) für automatisierte Deployment von Dateninfrastrukturen
* Ausgezeichnete Kommunikationsfähigkeiten für die Zusammenarbeit mit technischen Teams und Business Stakeholdern
* Fließende Deutsch- und Englischkenntnisse für internationale Kundenprojekte und globale Zusammenarbeit
PREFERRED
QUALIFICATIONS
* AWS und Snowflake Zertifizierungen (Data Analytics, Data Engineer, SnowPro Core/Advanced)
* Expertise in Real-time Data Processing mit Kafka, Kinesis oder anderen Streaming Technologien
* Machine Learning Pipeline Erfahrung mit SageMaker, MLflow oder Integration von ML-Models in Datenverarbeitungsworkflows
* Data Governance und Compliance Kenntnisse für regulierte Branchen (GDPR, SOX, HIPAA)
* Container- und Orchestration-Erfahrung (Docker, Kubernetes, ECS) für containerisierte Data Processing Workloads
* Industry-spezifische Datenmodellierungs-Erfahrung in Bereichen wie Financial Services, Retail oder Manufacturing
* Thought Leadership durch Konferenz-Präsentationen über Data Engineering Topics oder Open-Source Beiträge
* Internationale Projekterfahrung mit Multi-Region Data Architectures und globalen Compliance-Anforderungen
Zusätzliche Informationen
Melde Dich bei unserem Recruiting Team
Durch unsere offene Unternehmenskultur legen wir großen Wert darauf, Menschen die Chance zu geben, sich zu bewerben, auch wenn nicht alle spezifischen Fähigkeiten der Stellenbeschreibung erfüllt werden. Wir sind überzeugt, dass jede:r Einzelne durch unsere Unterstützung und ein motiviertes Team sein volles Potenzial entfalten kann.
Wir freuen uns auf Deine Bewerbung!