Probieren Sie es aus und erfahren Sie, was der Markt Ihnen zu bieten hat – völlig kostenfrei, diskret und unverbindlich! Wir freuen uns auf Sie. Entwicklung maßgeschneiderter BI- und Analytics-Lösungen mit Schwerpunkt Databricks Strukturierung fachlicher Anforderungen und Umsetzung in effiziente technische Lösungen Verantwortung für Data Management und Data Processing: von Datenintegration und -bewirtschaftung über klassische DWH-Systeme bis hin zu hybriden Architekturen wie Data Lakehouse Datenmodellierung nach Methoden wie Data Vault oder dimensionaler Modellierung sowie Aufbereitung für weiterführende Anwendungen Umsetzung skalierbarer Datenlösungen in der Azure-Cloud und Einbringung innovativer Ansätze in Projekte Unterstützung bei der Datenvisualisierung mit Tools wie Power BI und Tableau Technische Expertise: Erfahrung in Datenmodellierung (Data Vault, dimensionale Modellierung), Aufbau von Analytics-Architekturen und Datenintegration Cloud-Know-how: Fundierte Kenntnisse in Microsoft Azure/Fabric oder Snowflake sowie tiefgehende Erfahrung mit Databricks Sicherer Umgang mit SQL, Python und gängigen BI-Tools (Power BI, Tableau, QlikSense) Moderner Tech-Stack und spannende Projekte 30 Tage Urlaub Betriebliche Altersvorsorge, JobRad und Option auf Firmenwagen Vielfältige Weiterbildungsangebote und interne Communities Absicherung bei Krankheit (bis zu 6 Monate Lohnfortzahlung) Gehaltsinformationen Es wird eine faire und leistungsgerechte Vergütung geboten.
Das machst du Als (Senior) Data Engineer (all genders) gestaltest du unsere BI & Analytics-Projekte aktiv mit und entwickelst diese fachlich und inhaltlich weiter. Entwicklung und Konzeptionierung: Du entwickelst auf Basis aktueller Methoden und Technologien auftragsbezogene BI- und Analytics-Lösungen, die auf individuelle Kundenanforderungen zugeschnitten sind.
Power BI) sowie Sicherstellung der verwendbaren Datenversorgung für das ProjektAnalyse fachlicher Anforderungen aus den Teilbereichen des Projekts sowie Ableitung von IT Architekturen und technischen KonzeptenAbstimmung mit beteiligten Fachbereichen, IT Teams und externen Partnern Tiefes Verständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-LösungenErfahrung in Projekten rund um Cloud-Datenplattformen, Data Engineering, Schnittstellen und DatenintegrationTechnologisches Know-how (mind. in mehreren Bereichen)Azure Data Services, insbesondere: Databricks, Data Factory, Azure DevOps, Power BIContainertechnologien (Docker, Kubernetes)Python, Git, CI/CDETL-/ELT-Prozesse, z.B. über REST-APIsSQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche BezahlungBetriebliche AltersvorsorgeBetreuung im gesamten BewerbungsprozessEin renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865599/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Aufbereitung und Bereitstellung von Daten für unterschiedliche technische und analytische Nutzungsszenarien im Projekt Entwicklung und Betreuung projektbezogener Reporting Lösungen (u.a. Power BI) sowie Sicherstellung der verwendbaren Datenversorgung für das Projekt Analyse fachlicher Anforderungen aus den Teilbereichen des Projekts sowie Ableitung von IT Architekturen und technischen Konzepten Abstimmung mit beteiligten Fachbereichen, IT Teams und externen Partnern Tiefes Verständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-Lösungen Erfahrung in Projekten rund um Cloud-Datenplattformen, Data Engineering, Schnittstellen und Datenintegration Technologisches Know-how (mind. in mehreren Bereichen) Azure Data Services, insbesondere: Databricks, Data Factory, Azure DevOps, Power BI Containertechnologien (Docker, Kubernetes) Python, Git, CI/CD ETL-/ELT-Prozesse, z.B. über REST-APIs SQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche Altersvorsorge Betreuung im gesamten Bewerbungsprozess Ein renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865599/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Probieren Sie es aus und erfahren Sie, was der Markt Ihnen zu bieten hat – völlig kostenfrei, diskret und unverbindlich! Wir freuen uns auf Sie. Entwicklung maßgeschneiderter BI- und Analytics-Lösungen mit Schwerpunkt DatabricksStrukturierung fachlicher Anforderungen und Umsetzung in effiziente technische LösungenVerantwortung für Data Management und Data Processing: von Datenintegration und -bewirtschaftung über klassische DWH-Systeme bis hin zu hybriden Architekturen wie Data LakehouseDatenmodellierung nach Methoden wie Data Vault oder dimensionaler Modellierung sowie Aufbereitung für weiterführende AnwendungenUmsetzung skalierbarer Datenlösungen in der Azure-Cloud und Einbringung innovativer Ansätze in ProjekteUnterstützung bei der Datenvisualisierung mit Tools wie Power BI und Tableau Technische Expertise: Erfahrung in Datenmodellierung (Data Vault, dimensionale Modellierung), Aufbau von Analytics-Architekturen und DatenintegrationCloud-Know-how: Fundierte Kenntnisse in Microsoft Azure/Fabric oder Snowflake sowie tiefgehende Erfahrung mit DatabricksSicherer Umgang mit SQL, Python und gängigen BI-Tools (Power BI, Tableau, QlikSense) Moderner Tech-Stack und spannende Projekte30 Tage Urlaub Betriebliche Altersvorsorge, JobRad und Option auf FirmenwagenVielfältige Weiterbildungsangebote und interne CommunitiesAbsicherung bei Krankheit (bis zu 6 Monate Lohnfortzahlung) Gehaltsinformationen Es wird eine faire und leistungsgerechte Vergütung geboten.
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du konzipierst, entwickelst und betreibst gemeinsam mit deinem Team skalierbare Lösungen für die internationale Data & Analytics Plattform von ALDI Nord mit dem Ziel, das international einheitliche Kennzahlenreporting zur Steuerung aller Filialen zu erweitern Du übernimmst die Ende zu Ende Verantwortung für die Anbindung neuer Datenquellen, die Entwicklung und Optimierung komplexer ETL Pipelines sowie die Bereitstellung und Pflege der Cloud Infrastruktur Du konzipierst und entwickelst Datentransformationsprozessen (z.
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du konzipierst, entwickelst und betreibst gemeinsam mit deinem Team skalierbare Lösungen für die internationale Data & Analytics Plattform von ALDI Nord Du übernimmst die Ende zu Ende Verantwortung für die Anbindung neuer Datenquellen, die Entwicklung und Optimierung komplexer ETL Pipelines sowie die Bereitstellung und Pflege der Cloud Infrastruktur Du konzipierst und entwickelst Datentransformationsprozessen (z.
B. durch den Einsatz von Terraform.Du hast langjährige Erfahrung in der Entwicklung robuster Datenpipelines mit verschiedenen Quellsystemen.Du arbeitest lösungsorientiert, strukturiert und gerne im Team an komplexen Herausforderungen.
Übernahme der technischen Verantwortung für ein laufendes GenAI-Projekt Weiterentwicklung bestehender GenAI-Pipelines zur Verarbeitung großer Dokumentenmengen Implementierung und Optimierung von LLM-basierten Textverarbeitungsprozessen Extraktion von Insights aus Dokumentenablagen Klassifikation, Zusammenfassung, semantische Suche Generierung von Texten und Antworten Integration von GenAI-Methoden in bestehende Unternehmenssysteme, inkl.: Entwicklung und Pflege von REST-APIs und weiteren Schnittstellen Anbindung an interne Systeme und Datenquellen Arbeiten in einer Azure-Cloud-Umgebung Qualitätssicherung und Stabilisierung der bestehenden Lösung Technische Beratung des Fachbereichs Fundierte Erfahrung als AI Engineering Sehr gute GenAI Erfahrung Erfahrung mit LEMS Erfahrung mit Azure Datenbanksysteme: Azure Blob Storage Erfahrung mir Legacy Systemen Document Intelligence Python API-Entwicklung (u.a.
Du bist für die Betriebsüberwachung und das Deployment der Lösungen verantwortlich. Du automatisierst Entwicklungs-, Test- und Betriebsprozesse Diese Kenntnisse bringst Du idealerweise mit: Du besitzt mehrjährige Erfahrung als Dev(Sec)OPs Engineer.
Diese Bachelorthesis wird von unseren Expert:innen des Competence Centers Data & AI begleitet.Regelmäßige Feedbackgespräche: Wir werden regelmäßig Feedback austauschen, um deinen Fortschritt zu überprüfen und deine Entwicklung zu fördernHybrides Arbeiten: In Abstimmung mit deiner Führungskraft wählst du aus einer Kombination von Remote-Arbeit und Büro-Präsenz, für mehr Flexibilität und FreiheitGroßzügige Gleitzeitregelung: In Abstimmung mit deiner Führungskraft legst du deine Arbeitszeiten nach deinen Präferenzen fest, um deinen persönlichen Bedürfnissen gerecht zu werdenLea Teppert, Specialist Recruiting & HR Marketing jobs@mm-software.com Tel.: +49 7724 9415-34 Bewirb dich gerne per du und nutze unsere Vornamen!
Diese Masterthesis wird von unseren Expert:innen des Competence Centers Data & AI begleitet.Regelmäßige Feedbackgespräche: Wir werden regelmäßig Feedback austauschen, um deinen Fortschritt zu überprüfen und deine Entwicklung zu fördernHybrides Arbeiten: In Abstimmung mit deiner Führungskraft wählst du aus einer Kombination von Remote-Arbeit und Büro-Präsenz, für mehr Flexibilität und FreiheitGroßzügige Gleitzeitregelung: In Abstimmung mit deiner Führungskraft legst du deine Arbeitszeiten nach deinen Präferenzen fest, um deinen persönlichen Bedürfnissen gerecht zu werdenLea Teppert, Specialist Recruiting & HR Marketing jobs@mm-software.com Tel.: +49 7724 9415-34 Bewirb dich gerne per du und nutze unsere Vornamen!
Mentoring- und Buddy-Angebote: Profitiere von persönlicher Förderung und Unterstützung, die Dich gezielt begleiten – beim Aufbau Deiner Kompetenzen und beim gemeinsamen Gestalten unserer Projekte. Zeit für berufliche und persönliche Entwicklung: Mithilfe unserer Grow your Talent Platform kannst Du Deine berufliche und persönliche Entwicklung auf das nächste Level heben und Deine fachlichen und persönlichen Kompetenzen gezielt weiterentwickeln.
Teamführung und Koordination (ca. 50 %) / Technische Verantwortung (ca. 50 %) Fachliche Führung und Unterstützung des Teams im Bereich Data Engineering Planung, Organisation und Koordination datenbezogener Aktivitäten über mehrere Teams hinweg Sicherstellung eines strukturierten Informationsflusses zwischen technischen und nicht-technischen Stakeholdern Planung, Nachverfolgung und Reporting von Data-Engineering-Aufgaben und Deliverables Pflege und Aktualisierung der Dokumentation zu Datenpipelines, Workflows und Systemarchitekturen Sicherstellung der Einhaltung interner Standards, Prozesse sowie Data-Governance-Richtlinien Identifikation von Optimierungspotenzialen und kontinuierliche Verbesserung von Prozessen und Tools Entwicklung und Wartung performanter, zuverlässiger und verteilter Anwendungen unter Anwendung funktionaler Programmierprinzipien Aufbau und Optimierung datenintensiver Workflows mit Apache Spark bzw. vergleichbaren Frameworks Entwicklung skalierbarer Datenlösungen in Databricks mit Fokus auf Resilienz und Elastizität in großen Deployments Implementierung effizienter, wartbarer und gut testbarer Softwarelösungen in Python Fundierte Erfahrung in funktionaler Programmierung, z.
Tätigkeiten: Potenziale erkennen: Analysiere Kundenanforderungen und entwickle datengetriebene Lösungen – von Analytics über Machine Learning bis GenAI.Strategien entwickeln: Konzipiere individuelle Data-&-AI-Strategien für vielfältige Use Cases.Lösungen skalieren: Entwirf zukunftsfähige Architekturen für Datenplattformen, ML-Pipelines und AI-Systeme.Technologien prüfen: Teste und empfehle passende Technologien, begleite Umsetzungsteams mit klaren Roadmaps.Business ausbauen: Unterstütze Pre-Sales-Aktivitäten, Marktanalysen und die Weiterentwicklung datenbasierter Geschäftsbereiche.Angebote mitgestalten: Bringe deine Ideen in Lösungskonzepte, Kalkulationen und Präsentationen ein.Akademischer Hintergrund: Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik, Computer Science oder eine vergleichbare Qualifikation.Erfahrung: Mehrjährige Erfahrung in der Konzeption und Umsetzung moderner Datenplattformen, ML-Lösungen und AI-Systeme.Technologiekompetenz: Fundierte Erfahrung mit Azure, Databricks oder AWS sowie in Python, SQL, Docker, CI/CD-Pipelines und Infrastructure as Code.Fachliches Know-how: Tiefes Verständnis moderner Datenarchitekturen, MLOps und Data Governance.Arbeitsweise: Kombination aus konzeptioneller Stärke, analytischem Denken und pragmatischer Hands-on-Mentalität.Kommunikationsstärke: Fähigkeit, komplexe Themen klar und überzeugend zu vermitteln – in Deutsch und Englisch.Flexibilität: Wir bieten dir flexible Arbeitsmodelle mit großzügiger Gleitzeitregelung – wahlweise an einem unserer Standorte oder bis zu 100 % mobil innerhalb Deutschlands.Einarbeitung & Entwicklung: Deine individuelle Einarbeitung und Karriereförderung liegen uns am Herzen. Zusätzlich steht dir ein Coach zur Seite, der dich bei deiner beruflichen und persönlichen Entwicklung unterstützt.Gesundheit & Wohlbefinden: Wir unterstützen dich mit Angeboten wie Massagen, Hansefit, Dienstrad-Leasing sowie regelmäßigen Festen und Teamevents.Workation: Arbeite flexibel von verschiedenen Orten aus – mit unserem Workation-Angebot.Zusätzliche Benefits: Freue dich auf eine jährliche Prämie sowie Zuschüsse zur Altersvorsorge und Kinderbetreuung.Arbeitsklima: Ein ausgezeichnetes Betriebsklima mit hoher Mitarbeiterzufriedenheit macht uns besonders stolz.
Das ist herausfordernd und deshalb brauchen wir DICH! In dieser Rolle sorgst du dafür, dass die KI-Entwicklung nicht bei Proof-of-Concepts endet, sondern skalierbare und wertschöpfende Lösungen entstehen. Du glänzt sowohl im Bereich KI als auch im Software Engineering?
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du konzipierst, entwickelst und betreibst gemeinsam mit deinem Team skalierbare Lösungen für die internationale Data & Analytics Plattform von ALDI Nord Du übernimmst die Ende zu Ende Verantwortung für die Anbindung neuer Datenquellen, die Entwicklung und Optimierung komplexer ETL Pipelines sowie die Bereitstellung und Pflege der Cloud Infrastruktur Du identifizierst technische Verbesserungsmöglichkeiten und setzt diese um – etwa durch Performance Tuning, Automatisierung oder die gezielte Nutzung bestehender oder neuer Features Du gestaltest die Weiterentwicklung unserer Plattform aktiv mit, indem du technische Standards mitentwickelst, Architekturentscheidungen begleitest und eng mit anderen Engineering Teams zusammenarbeitest Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Das bringst du mit Studium, Data-Background: Du hast ein abgeschlossenes Studium der Wirtschaftsinformatik, Informatik, Data Science oder eine vergleichbare Qualifikation.Berufserfahrung, Analytics-Know-how: Du verfügst über mindestens 8 Jahre Erfahrung in Data-Analytics-, BI-, DWH- oder KI-Projekten mit direktem Kundenkontakt.Solution Design, Pre-Sales-Expertise: Du hast fundierte Erfahrung im Anforderungsmanagement, in der Entwicklung von Solution Designs sowie in Pre-Sales- und Angebotsprozessen.Technologiekompetenz, Cloud-Plattformen: Du bringst tiefes Verständnis von Analytics- und KI-Architekturen sowie Erfahrung mit MS Fabric, Snowflake oder Databricks mit.Wirtschaftlichkeit, Multiprojektmanagement: Du kannst Projekte wirtschaftlich bewerten, kalkulieren und mehrere Kunden- und Projektkontexte parallel steuern.Kommunikationsstärke, Persönlichkeit: Du trittst souverän auf Managementebene auf, kommunizierst verhandlungssicher in Deutsch und gut in Englisch und überzeugst durch analytisches Denken, Abschlussstärke und Reisebereitschaft.
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQL Anforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best Practices Aufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und Monitoring Strategische Beratung zu Datenarchitekturen, Technologien und Tools Aktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in Data Engineering und idealerweise auch Data Architecture Sehr gute Kenntnisse in der Programmierung mit Python, SQL und Shell Sicherer Umgang mit Infrastructure-as-Code, z.B.
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQLAnforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best PracticesAufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und MonitoringStrategische Beratung zu Datenarchitekturen, Technologien und ToolsAktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in Data Engineering und idealerweise auch Data ArchitectureSehr gute Kenntnisse in der Programmierung mit Python, SQL und ShellSicherer Umgang mit Infrastructure-as-Code, z.B.
Mentoring- und Buddy-Angebote: Profitiere von persönlicher Förderung und Unterstützung, die Dich gezielt begleiten – beim Aufbau Deiner Kompetenzen und beim gemeinsamen Gestalten unserer Projekte. Zeit für berufliche und persönliche Entwicklung: Mithilfe unserer Grow your Talent Platform kannst Du Deine berufliche und persönliche Entwicklung auf das nächste Level heben und Deine fachlichen und persönlichen Kompetenzen gezielt weiterentwickeln.
Mentoring- und Buddy-Angebote : Profitiere von persönlicher Förderung und Unterstützung, die Dich gezielt begleiten – beim Aufbau Deiner Kompetenzen und beim gemeinsamen Gestalten unserer Projekte. Zeit für berufliche und persönliche Entwicklung: Mithilfe unserer Grow your Talent Platform kannst Du Deine berufliche und persönliche Entwicklung auf das nächste Level heben und Deine fachlichen und persönlichen Kompetenzen gezielt weiterentwickeln.