InfotextBei ALDI DX entwickeln wir innovative digitale Produkte und Dienstleistungen für unsere Mitarbeiter:innen und Kund:innen in elf ALDI SÜD Ländern und über 7.300 ALDI SÜD Filialen weltweit. Wir schaffen digitalen Mehrwert, um hervorragende Qualität zum niedrigsten Preis zu bieten.Geleitet werden wir dabei von den drei Kernwerten der Unternehmensgruppe ALDI SÜD – "Einfachheit", "Verlässlichkeit" und "Verantwortung". Daneben stehen ebenso unser Team und unsere Performance im Zentrum unseres Handelns.Deine AufgabenWofür du dein Bestes gibst.Entwurf, Entwicklung, Optimierung und Pflege einer Squad-spezifischen Datenarchitektur und von Pipelines, die definierten ETL- und Data-Lake-Prinzipien entsprechenVorbereitung, Abstimmung und Organisation der Übergabe von Datenarchitektur- und Pipeline-Artefakten an das Plattform-Team zur Squad-übergreifenden VerwendungLösung technischer Datenprobleme, deren Behebung unseren Business-Kolleg:innen bei der Zielerreichung hilftErstellung von Datenprodukten für Analytics und Data Scientists/Machine Learning Engineers, um deren Produktivität innerhalb ihrer Teams sowie des gesamten Unternehmens zu verbessernBeratung, Mentoring und Coaching von Expert:innen im Bereich Data & Analytics in deiner eigenen Squad in Bezug auf Datenstandards und -verfahrenMitwirkung an der Bewertung neuer Tools im Bereich analytisches Data Engineering bzw. für die Datenwissenschaft sowie Beitrag zur Festlegung neuer Standards für entsprechende ArbeitsweisenVorschläge und Beiträge zu Schulungs- und Verbesserungsplänen hinsichtlich Fähigkeiten, Standards und Prozessen im Bereich analytisches Data EngineeringDein ProfilWas du mitbringen solltest.Hintergrund im Bereich InformatikMindestens zehn Jahre Berufserfahrung in der Software- oder Infrastrukturentwicklung, davon mindestens vier Jahre im Bereich Data Engineering mit Lösungen in Bezug auf Distributed Computing, Big Data und Advanced AnalyticsKenntnisse in SQL und Datenanalyse sowie Erfahrung mit mindestens einer Programmiersprache (z. B. Python, Scala)Erfahrung in der Datenbankentwicklung und Datenmodellierung, idealerweise unter Verwendung von Databricks/Spark und SQL Server DB, sowie Kenntnisse über relationale, NoSQL- und Cloud-DatenbanktechnologienKenntnisse in Distributed Computing und der zugrundeliegenden Konzepte, vorzugsweise Spark und MapReduceVertrautheit mit MS-Azure-Tools, wie Azure Data Factory, Azure Databricks, Azure Event Hub, Synapse, MLKonzeptionelle Kenntnisse über Daten und Analysen, z. B. Dimensionsmodellierung, ETL, Berichterstattungstools, Data Governance, Data Warehousing, strukturierte und unstrukturierte DatenErfahrung mit Unix-Betriebssystemen, insbesondere mit Shell-SkriptenGutes Verständnis von Problemen auf Netzwerkebene sowie Konnektivitätsanforderungen; Fähigkeit, Probleme zu behebenGrundkenntnisse im Bereich maschinelles Lernen, Datenwissenschaft, Computer Vision, künstliche Intelligenz, Statistik bzw. angewandte MathematikKommunikationsstärke sowie fließende Englischkenntnisse; Deutschkenntnisse sind von VorteilDeine BenefitsWie wir deinen Einsatz wertschätzen.Anteilig mobiles Arbeiten innerhalb DeutschlandsState-of-the-art-TechnologienAttraktive Vergütung sowie Urlaubs- und WeihnachtsgeldZukunftsorientierte Schulungen und WeiterbildungModulares Onboarding und BuddyGesundheitsangeboteDein Tech StackWomit du unter anderem arbeitest.Azure Databricks,Python,PySpark,Viele weitere jobabhängig