Infotext
ALDI SÜD ist mit über 7.000 Filialen in 11 Ländern einer der größten Lebensmitteleinzelhändler weltweit. Unsere Mission ist es, unsere Kund:innen mit qualitativ hochwertigen Lebensmitteln zu den bestmöglichen Preisen zu versorgen. Dabei folgen wir unserem einzigartigen Konzept aus Einfachheit, Verantwortung und Verlässlichkeit.
In unserer ALDI Data & Analytics Unit dreht sich alles um ein Thema: Datenbasierten Mehrwert für ALDI SÜD auf der ganzen Welt zu generieren. In internationalen Projekten entwickeln wir für und zusammen mit unseren Geschäfts- und Technologieteams skalierbare Datenanalyseprodukte. Auf diese Weise unterstützen wir das gesamte Unternehmen dabei, Geschäftsentscheidungen auf der Grundlage zuverlässiger Daten und modernster Erkenntnisse im Bereich der Datenanalyse zu treffen. Werde Teil unseres ALDI Data & Analytics Teams!
Deine Aufgaben
Wofür du dein Bestes gibst.
- Entwurf, Entwicklung, Optimierung und Pflege einer Squad-spezifischen Datenarchitektur und von Pipelines, die definierten ETL- und Data-Lake-Prinzipien entsprechen
- Vorbereitung, Abstimmung und Organisation der Übergabe von Datenarchitektur- und Pipeline-Artefakten an das Plattform-Team zur Squad-übergreifenden Verwendung
- Lösung technischer Datenprobleme, deren Behebung unseren Business-Kolleg:innen bei der Zielerreichung hilft
- Erstellung von Datenprodukten für Analytics und Data Scientists/Machine Learning Engineers, um deren Produktivität innerhalb ihrer Teams sowie des gesamten Unternehmens zu verbessern
- Beratung, Mentoring und Coaching von Expert:innen im Bereich Data & Analytics in deiner eigenen Squad in Bezug auf Datenstandards und -verfahren
- Mitwirkung an der Bewertung neuer Tools im Bereich analytisches Data Engineering bzw. für die Datenwissenschaft sowie Beitrag zur Festlegung neuer Standards für entsprechende Arbeitsweisen
- Vorschläge und Beiträge zu Schulungs- und Verbesserungsplänen hinsichtlich Fähigkeiten, Standards und Prozessen im Bereich analytisches Data Engineering
Dein Profil
Was du mitbringen solltest.
- Hintergrund im Bereich Informatik
- Mindestens zehn Jahre Berufserfahrung in der Software- oder Infrastrukturentwicklung, davon mindestens vier Jahre im Bereich Data Engineering mit Lösungen in Bezug auf Distributed Computing, Big Data und Advanced Analytics
- Kenntnisse in SQL und Datenanalyse sowie Erfahrung mit mindestens einer Programmiersprache (z. B. Python, Scala)
- Erfahrung in der Datenbankentwicklung und Datenmodellierung, idealerweise unter Verwendung von Databricks/Spark und SQL Server DB, sowie Kenntnisse über relationale, NoSQL- und Cloud-Datenbanktechnologien
- Kenntnisse in Distributed Computing und der zugrundeliegenden Konzepte, vorzugsweise Spark und MapReduce
- Vertrautheit mit MS-Azure-Tools, wie Azure Data Factory, Azure Databricks, Azure Event Hub, Synapse, ML
- Konzeptionelle Kenntnisse über Daten und Analysen, z. B. Dimensionsmodellierung, ETL, Berichterstattungstools, Data Governance, Data Warehousing, strukturierte und unstrukturierte Daten
- Erfahrung mit Unix-Betriebssystemen, insbesondere mit Shell-Skripten
- Gutes Verständnis von Problemen auf Netzwerkebene sowie Konnektivitätsanforderungen; Fähigkeit, Probleme zu beheben
- Grundkenntnisse im Bereich maschinelles Lernen, Datenwissenschaft, Computer Vision, künstliche Intelligenz, Statistik bzw. angewandte Mathematik
- Kommunikationsstärke sowie fließende Englischkenntnisse; Deutschkenntnisse sind von Vorteil
Deine Benefits
Wie wir deinen Einsatz wertschätzen.
- Anteilig mobiles Arbeiten innerhalb Deutschlands inkl. Hardware-Budget
- State-of-the-art-Technologien
- Attraktive Vergütung sowie Urlaubs- und Weihnachtsgeld
- Zukunftsorientierte Schulungen und Weiterbildung
- Modulares Onboarding und Buddy
- Gesundheitsangebote
Dein Tech Stack
Womit du unter anderem arbeitest.
- Azure Databricks,
- Python,
- PySpark,
- Viele weitere jobabhängig
Jobsegment:
Cloud, Database, Analytics, Data Warehouse, SQL, Technology, Management