Infotext
Bei ALDI DX entwickeln wir innovative digitale Produkte und Dienstleistungen für unsere Mitarbeiter:innen und Kund:innen in elf ALDI SÜD Ländern und über 7.300 ALDI SÜD Filialen weltweit. Wir schaffen digitalen Mehrwert, um hervorragende Qualität zum niedrigsten Preis zu bieten.
Geleitet werden wir dabei von den drei Kernwerten der Unternehmensgruppe ALDI SÜD – „Einfachheit“, „Verlässlichkeit“ und „Verantwortung“. Daneben stehen ebenso unser Team und unsere Performance im Zentrum unseres Handelns.
Deine Aufgaben
Wofür du dein Bestes gibst.
- Entwurf, Entwicklung, Optimierung und Pflege einer Squad-spezifischen Datenarchitektur und von Pipelines, die definierten ETL- und Data-Lake-Prinzipien entsprechen
- Vorbereitung, Abstimmung und Organisation der Übergabe von Datenarchitektur- und Pipeline-Artefakten an das Plattform-Team zur Squad-übergreifenden Verwendung
- Lösung technischer Datenprobleme, deren Behebung unseren Business-Kolleg:innen bei der Zielerreichung hilft
- Erstellung von Datenprodukten für Analytics und Data Scientists/Machine Learning Engineers, um deren Produktivität innerhalb ihrer Teams sowie des gesamten Unternehmens zu verbessern
- Beratung, Mentoring und Coaching von Expert:innen im Bereich Data & Analytics in deiner eigenen Squad in Bezug auf Datenstandards und -verfahren
- Mitwirkung an der Bewertung neuer Tools im Bereich analytisches Data Engineering bzw. für die Datenwissenschaft sowie Beitrag zur Festlegung neuer Standards für entsprechende Arbeitsweisen
- Vorschläge und Beiträge zu Schulungs- und Verbesserungsplänen hinsichtlich Fähigkeiten, Standards und Prozessen im Bereich analytisches Data Engineering
Dein Profil
Was du mitbringen solltest.
- Hintergrund im Bereich Informatik
- Mindestens zehn Jahre Berufserfahrung in der Software- oder Infrastrukturentwicklung, davon mindestens vier Jahre im Bereich Data Engineering mit Lösungen in Bezug auf Distributed Computing, Big Data und Advanced Analytics
- Kenntnisse in SQL und Datenanalyse sowie Erfahrung mit mindestens einer Programmiersprache (z. B. Python, Scala)
- Erfahrung in der Datenbankentwicklung und Datenmodellierung, idealerweise unter Verwendung von Databricks/Spark und SQL Server DB, sowie Kenntnisse über relationale, NoSQL- und Cloud-Datenbanktechnologien
- Kenntnisse in Distributed Computing und der zugrundeliegenden Konzepte, vorzugsweise Spark und MapReduce
- Vertrautheit mit MS-Azure-Tools, wie Azure Data Factory, Azure Databricks, Azure Event Hub, Synapse, ML
- Konzeptionelle Kenntnisse über Daten und Analysen, z. B. Dimensionsmodellierung, ETL, Berichterstattungstools, Data Governance, Data Warehousing, strukturierte und unstrukturierte Daten
- Erfahrung mit Unix-Betriebssystemen, insbesondere mit Shell-Skripten
- Gutes Verständnis von Problemen auf Netzwerkebene sowie Konnektivitätsanforderungen; Fähigkeit, Probleme zu beheben
- Grundkenntnisse im Bereich maschinelles Lernen, Datenwissenschaft, Computer Vision, künstliche Intelligenz, Statistik bzw. angewandte Mathematik
- Kommunikationsstärke sowie fließende Englischkenntnisse; Deutschkenntnisse sind von Vorteil
Deine Benefits
Wie wir deinen Einsatz wertschätzen.
- Anteilig mobiles Arbeiten innerhalb Deutschlands
- State-of-the-art-Technologien
- Attraktive Vergütung sowie Urlaubs- und Weihnachtsgeld
- Zukunftsorientierte Schulungen und Weiterbildung
- Modulares Onboarding und Buddy
- Gesundheitsangebote
Dein Tech Stack
Womit du unter anderem arbeitest.
- Azure Databricks,
- Python,
- PySpark,
- Viele weitere jobabhängig
Jobsegment:
Cloud, Database, SQL, Data Warehouse, Social Media, Technology, Marketing