Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du konzipierst, entwickelst und betreibst gemeinsam mit deinem Team skalierbare Lösungen für die internationale Data & Analytics Plattform von ALDI Nord mit dem Ziel, das international einheitliche Kennzahlenreporting zur Steuerung aller Filialen zu erweitern Du übernimmst die Ende zu Ende Verantwortung für die Anbindung neuer Datenquellen, die Entwicklung und Optimierung komplexer ETL Pipelines sowie die Bereitstellung und Pflege der Cloud Infrastruktur Du konzipierst und entwickelst Datentransformationsprozessen (z.
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du konzipierst, entwickelst und betreibst gemeinsam mit deinem Team skalierbare Lösungen für die internationale Data & Analytics Plattform von ALDI Nord Du übernimmst die Ende zu Ende Verantwortung für die Anbindung neuer Datenquellen, die Entwicklung und Optimierung komplexer ETL Pipelines sowie die Bereitstellung und Pflege der Cloud Infrastruktur Du konzipierst und entwickelst Datentransformationsprozessen (z.
Teilprojektleitung in internationalen Projekten im Bereich Data- / Process Mining, Data Analytics und maschinelles Lernen Koordination und Steuerung von internen IT-Ressourcen, externen Partnern und Mitarbeitern der Fachabteilung Mitarbeit in Projekten außerhalb des eigenen Verantwortungsbereichs bei Bedarf Ihr Profil: Erfolgreich abgeschlossenes Studium aus dem Bereich Informationstechnologie, Data Science oder eine gleichwertige Ausbildung Mehrjährige Erfahrung im Bereich Qlik Sense Entwicklung Mehrjährige Berufserfahrung als Projektleiter oder Consultant, idealerweise in einem produzierenden Unternehmen (z.B. Maschinen-/Anlagenbau) von Vorteil Sehr gute Kenntnisse im Bereich ETL, Datenmodellierung und Reporting Kenntnisse über Datenstrukturen in SAP ERP und S/4HANA wünschenswert Kenntnisse im objektorientierten Design und der Softwarequalität Sehr gute analytische Fähigkeiten und ein starker Sinn für Geschäftsprozesse und Business Prioritäten Eigenständige, strukturierte und lösungsorientierte Arbeitsweise Sehr gute Kommunikations- und zwischenmenschliche Fähigkeiten Sichere Kommunikation in Deutsch und Englisch Reisebereitschaft (ca. 15%) Haben wir Ihr Interesse geweckt?
Was Dich erwartet Aufbau und Pflege von ETL-Pipelines zur Integration unterschiedlicher DatenquellenGestaltung und Verwaltung von Datenstrukturen, wie Data Warehouses und Data LakesSicherstellung der Datenqualität durch Monitoring und FehleranalysenEnge Zusammenarbeit mit Data Scientists zur Gewinnung datengestützter ErkenntnisseOptimierung und Automatisierung von Datenprozessen für erhöhte Effizienz Das bringst Du mit Abgeschlossenes Studium in Informatik, Datenwissenschaft, Ingenieurwesen oder einer ähnlichen QualifikationFundierte Kenntnisse in SQL und Python sowie Erfahrung mit ETL-ToolsErfahrungen mit Datenbanken und Big-Data-Technologien von VorteilAusgeprägte analytische Fähigkeiten und ProblemlösungsorientierungTeamfähigkeit und Kommunikationsstärke Was wir bieten Attraktive Vergütung: Überdurchschnittliches Gehalt mit individuellen Zuschüssen und ausgezeichneter Entwicklung nach TarifvertragHigh-End Kunden: Zusammenarbeit mit den angesagtesten Unternehmen der AutomobilbranchePROGNUM-Guide - Das Besondere: Bei PROGNUM lassen wir Sie nicht allein!
Sehr gute Kenntnisse in Python und SQL zeichnen dich aus. Du hast fundierte Praxis in der Entwicklung und im Betrieb von Data Pipelines gesammelt. Relationale Datenbanken und Data-Warehouse-Modellierung sind dir vertraut. Du konntest bereits mit Spark oder anderen verteilten Systemen arbeiten.
Das machst du Als (Senior) Data Engineer (all genders) gestaltest du unsere BI & Analytics-Projekte aktiv mit und entwickelst diese fachlich und inhaltlich weiter. Entwicklung und Konzeptionierung: Du entwickelst auf Basis aktueller Methoden und Technologien auftragsbezogene BI- und Analytics-Lösungen, die auf individuelle Kundenanforderungen zugeschnitten sind.
Wachstum garantiert : Wir bringen nicht nur Pflanzen zum Wachsen – auch Ihre berufliche Entwicklung liegt uns am Herzen. Mit gezielter Unterstützung und individuellen Entwicklungsprogrammen sorgen wir dafür, dass Sie beruflich aufblühen und Ihre Talente voll entfalten können.
Mein Arbeitgeber Beratungsunternehmen im Bereich Frachtkostenprüfung und -optimierung mit 100-jähriger Geschichte Modernisierung der Datenbankinfrastruktur bzw. des Data-Warehouse, um hierauf aufbauend sukzessive Automatisierungs- und KI-Lösungen und Tools für verschiedene Analysen und Prüfungen zu implementieren Python-Programmierung Aufbau robuster Datenpipelines, die aus rohen Daten wertvolle Insights generieren Entwicklung und Aufbau der Infrastruktur, um datengetriebene Entscheidungen treffen zu können Aufbau und Weiterentwicklung eines zentralen Data-Vault Datawarehouse-Systems Konzeption, Implementierung und Automatisierung von Datenpipelines (ETL/ELT) mit Apache NiFi, dbt und Python Abgeschlossene Ausbildung zum Fachinformatiker für Anwendungsentwicklung, abgeschlossenes Studium mit Informatikbezug oder Quereinsteiger mit entsprechendem Know-How Fundierte Kenntnisse in der datengetriebenen Softwareentwicklung mit Python Erfahrung in der Frontend- und Backend-Entwicklung Kenntnisse in Django/HTMX von Vorteil Erste Erfahrung im Bereich Data Engineering, Datenbanken, ETL und/oder Data Warehouse Kenntnisse mit Apache NiFi und dbt von Vorteil Ein extrem spannendes und hochkomplexes Betätigungsfeld Attraktive Weiterentwicklungsmöglichkeiten 38-Stunden-Woche Remote-Work möglich Jobrad Gute Erreichbarkeit mit dem Auto und dem ÖPNV Individuelle Absprachen zu Benefits möglich Gehaltsinformationen 50.000 - 70.000 EUR p.a.
Mentoring- und Buddy-Angebote: Profitiere von persönlicher Förderung und Unterstützung, die Dich gezielt begleiten – beim Aufbau Deiner Kompetenzen und beim gemeinsamen Gestalten unserer Projekte. Zeit für berufliche und persönliche Entwicklung: Mithilfe unserer Grow your Talent Platform kannst Du Deine berufliche und persönliche Entwicklung auf das nächste Level heben und Deine fachlichen und persönlichen Kompetenzen gezielt weiterentwickeln.
Mentoring- und Buddy-Angebote : Profitiere von persönlicher Förderung und Unterstützung, die Dich gezielt begleiten – beim Aufbau Deiner Kompetenzen und beim gemeinsamen Gestalten unserer Projekte. Zeit für berufliche und persönliche Entwicklung: Mithilfe unserer Grow your Talent Platform kannst Du Deine berufliche und persönliche Entwicklung auf das nächste Level heben und Deine fachlichen und persönlichen Kompetenzen gezielt weiterentwickeln.
Werde Teil unseres Teams und starte bei der Allgeier Public ab Juli als BI / Data Warehouse & ODI Engineer (m/w/d), 100% Remote. Deine Aufgaben Entwicklung, Anpassung und Migration von Datenquellen in BI- und Data-Warehouse-SystemenBetrieb, Konfiguration und Weiterentwicklung von Oracle Data Integrator (ODI)Unterstützung bei der Fehlerbehebung und ProduktbetreuungErstellung von Reports und Analyse-Lösungen mit Oracle Analytics Server / PublisherMitwirkung an Projekten in den Bereichen Controlling, Reporting und Datenanalyse Dein Skill-Profil Erfahrung im BI- und Data-Warehouse-UmfeldSehr gute Kenntnisse in Oracle Data Integrator (ODI) inklusive ProduktionsbetriebFundierte Kenntnisse in SQL / PL-SQLErfahrung mit Oracle-Datenbanken und LinuxIdealerweise Kenntnisse in Data-Lakehouse-Konzepten und analytischen ProjektenDeutschkenntnisse auf Niveau C1 Deine Vorteile bei uns Mobiles Arbeiten: Je nach Projekt ist mobiles Arbeiten nach Absprache bei uns möglich.Familienfreundlichkeit: Wir stocken Dein Gehalt bei Erkrankung Deines Kindes auf 100% auf.
Ihre Aufgaben Erstellung und Auswertung von Vertriebs- und Controlling-Berichten zur Identifizierung von Trends und Optimierungspotenzialen Weiterentwicklung von KPIs und Dashboards zur Messung der Vertriebsperformance und Preisstrategie Transparente Aufbereitung und Visualisierung von Daten für Entscheidungsträger Einführung und Überwachung von Benchmarks zur Messung der Vertriebsleistung Analyse der Preisstrategien und Ableitung von datenbasierten Optimierungsvorschlägen Mitarbeit bei der Entwicklung und Anpassung von Rabatt- und Konditionssystemen Unterstützung bei der Erstellung und Aktualisierung von Preislisten und der Umsetzung von Preisänderungen Analyse historischer Daten und Marktinformationen zur Erstellung von Absatzprognosen Mitwirkung bei der Sortimentssteuerung Ihr Profil Studium im Bereich Data Science, Data Analytics, Wirtschaftswissenschaften oder einer vergleichbaren Fachrichtung im fortgeschrittenen Semester Erste Erfahrungen im Bereich Sales Excellence, Market Intelligence oder Data Analytics Sicherer Umgang mit MS Office-Anwendungen (insbesondere Excel) und Erfahrung mit VBA-Programmierung Kenntnisse in SAP und Datenvisualisierungs-Tools (z.B.
Ihre Aufgaben Erstellung und Auswertung von Vertriebs- und Controlling-Berichten zur Identifizierung von Trends und Optimierungspotenzialen Weiterentwicklung von KPIs und Dashboards zur Messung der Vertriebsperformance und Preisstrategie Transparente Aufbereitung und Visualisierung von Daten für Entscheidungsträger Einführung und Überwachung von Benchmarks zur Messung der Vertriebsleistung Analyse der Preisstrategien und Ableitung von datenbasierten Optimierungsvorschlägen Mitarbeit bei der Entwicklung und Anpassung von Rabatt- und Konditionssystemen Unterstützung bei der Erstellung und Aktualisierung von Preislisten und der Umsetzung von Preisänderungen Analyse historischer Daten und Marktinformationen zur Erstellung von Absatzprognosen Mitwirkung bei der Sortimentssteuerung Ihr Profil Studium im Bereich Data Science, Data Analytics, Wirtschaftswissenschaften oder einer vergleichbaren Fachrichtung im fortgeschrittenen Semester Erste Erfahrungen im Bereich Sales Excellence, Market Intelligence oder Data Analytics Sicherer Umgang mit MS Office-Anwendungen (insbesondere Excel) und Erfahrung mit VBA-Programmierung Kenntnisse in SAP und Datenvisualisierungs-Tools (z.B.
Sehr gute Kenntnisse in Python und SQL zeichnen dich aus. Du hast fundierte Praxis in der Entwicklung und im Betrieb von Data Pipelines gesammelt. Relationale Datenbanken und Data-Warehouse-Modellierung sind dir vertraut. Du konntest bereits mit Spark oder anderen verteilten Systemen arbeiten.
Analyse und Auswertung großer Datenmengen (Outbound-Datenanalyse, Data Mining) Entwicklung und Implementierung von Datenmodellen zur Prozessoptimierung Nutzung von Google Cloud Platform (GCP) für Datenmanagement und Analyse Aufbau von skalierbaren Datenpipelines und ETL-Prozessen Zusammenarbeit mit internen Fachbereichen zur Digitalisierung und Automatisierung Langfristige strategische Projekte zur Verbesserung der Datenverfügbarkeit und Geschwindigkeit Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Data Science, Mathematik, Statistik oder vergleichbarer Fachrichtung Erfahrung als Data Scientist oder in einer ähnlichen Rolle Fundierte Kenntnisse in: Google Cloud Platform (BigQuery, AI/ML-Services) Programmiersprachen: Python, SQL Data Analytics, Machine Learning, Data Mining Erfahrung mit ETL-Prozessen und Cloud-Architekturen Analytisches Denken, strukturierte Arbeitsweise und Kommunikationsstärke Sehr gute Deutsch- und Englischkenntnisse Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen Angenehmes Arbeitsklima Ein hoch motiviertes Team und ein offener Kommunikationsstil Jährlicher Urlaubsanspruch von 30 Tagen Ihr Kontakt Referenznummer 854939/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Probieren Sie es aus und erfahren Sie, was der Markt Ihnen zu bieten hat – völlig kostenfrei, diskret und unverbindlich! Wir freuen uns auf Sie. Entwicklung maßgeschneiderter BI- und Analytics-Lösungen mit Schwerpunkt DatabricksStrukturierung fachlicher Anforderungen und Umsetzung in effiziente technische LösungenVerantwortung für Data Management und Data Processing: von Datenintegration und -bewirtschaftung über klassische DWH-Systeme bis hin zu hybriden Architekturen wie Data LakehouseDatenmodellierung nach Methoden wie Data Vault oder dimensionaler Modellierung sowie Aufbereitung für weiterführende AnwendungenUmsetzung skalierbarer Datenlösungen in der Azure-Cloud und Einbringung innovativer Ansätze in ProjekteUnterstützung bei der Datenvisualisierung mit Tools wie Power BI und Tableau Technische Expertise: Erfahrung in Datenmodellierung (Data Vault, dimensionale Modellierung), Aufbau von Analytics-Architekturen und DatenintegrationCloud-Know-how: Fundierte Kenntnisse in Microsoft Azure/Fabric oder Snowflake sowie tiefgehende Erfahrung mit DatabricksSicherer Umgang mit SQL, Python und gängigen BI-Tools (Power BI, Tableau, QlikSense) Moderner Tech-Stack und spannende Projekte30 Tage Urlaub Betriebliche Altersvorsorge, JobRad und Option auf FirmenwagenVielfältige Weiterbildungsangebote und interne CommunitiesAbsicherung bei Krankheit (bis zu 6 Monate Lohnfortzahlung) Gehaltsinformationen Es wird eine faire und leistungsgerechte Vergütung geboten.
Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Verantwortung für erfolgreiche Data-, Analytics- und KI-Projekte als Projektmanager und Schnittstelle zwischen Business und TechnikBeratung von Kunden zu datengetriebenen Strategien, Chancen und Risiken Offenes Ohr für Kundenbedürfnisse und Problemstellungen zur Identifikation von Trends Konzeption von Data-, Analytics- und KI-Lösungen und Auswahl passender Methoden Gestaltung und Weiterentwicklung der unternehmensinternen Data-Engineering-AktivitätenAnalyse des Einsatzes generativer KI zur Identifikation neuer Chancen für KundenAufbau nachhaltiger Kundenbeziehungen durch die Entwicklung individueller LösungenAktive Gestaltung von Workshops und Beiträgen zur Unterstützung des Teams beim Know How-Transfer Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in der Beratung und Konzeption rund um Data EngineeringSehr gutes Verständnis für moderne Datenarchitekturen, Cloud-Technologien und Data-Governance-Frameworks Die Fähigkeit, Anwendungspotenziale und Auswirkungen von Generativer KI zu identifizieren und zu erläuternAusgezeichnete Kommunikationsfähigkeit auf Deutsch und Englisch mit technisch versierten sowie fachfremden ZielgruppenVisionäre Denkweise und hast die Fähigkeit, Trends frühzeitig zu erkennen und interne strategische Initiativen voranzutreiben Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-LösungenEngagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-KulturSehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches EquipmentFlexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Verantwortung für erfolgreiche Data-, Analytics- und KI-Projekte als Projektmanager und Schnittstelle zwischen Business und Technik Beratung von Kunden zu datengetriebenen Strategien, Chancen und Risiken Offenes Ohr für Kundenbedürfnisse und Problemstellungen zur Identifikation von Trends Konzeption von Data-, Analytics- und KI-Lösungen und Auswahl passender Methoden Gestaltung und Weiterentwicklung der unternehmensinternen Data-Engineering-Aktivitäten Analyse des Einsatzes generativer KI zur Identifikation neuer Chancen für Kunden Aufbau nachhaltiger Kundenbeziehungen durch die Entwicklung individueller Lösungen Aktive Gestaltung von Workshops und Beiträgen zur Unterstützung des Teams beim Know How-Transfer Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in der Beratung und Konzeption rund um Data Engineering Sehr gutes Verständnis für moderne Datenarchitekturen, Cloud-Technologien und Data-Governance-Frameworks Die Fähigkeit, Anwendungspotenziale und Auswirkungen von Generativer KI zu identifizieren und zu erläutern Ausgezeichnete Kommunikationsfähigkeit auf Deutsch und Englisch mit technisch versierten sowie fachfremden Zielgruppen Visionäre Denkweise und hast die Fähigkeit, Trends frühzeitig zu erkennen und interne strategische Initiativen voranzutreiben Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-Lösungen Engagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-Kultur Sehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches Equipment Flexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Probieren Sie es aus und erfahren Sie, was der Markt Ihnen zu bieten hat – völlig kostenfrei, diskret und unverbindlich! Wir freuen uns auf Sie. Entwicklung maßgeschneiderter BI- und Analytics-Lösungen mit Schwerpunkt Databricks Strukturierung fachlicher Anforderungen und Umsetzung in effiziente technische Lösungen Verantwortung für Data Management und Data Processing: von Datenintegration und -bewirtschaftung über klassische DWH-Systeme bis hin zu hybriden Architekturen wie Data Lakehouse Datenmodellierung nach Methoden wie Data Vault oder dimensionaler Modellierung sowie Aufbereitung für weiterführende Anwendungen Umsetzung skalierbarer Datenlösungen in der Azure-Cloud und Einbringung innovativer Ansätze in Projekte Unterstützung bei der Datenvisualisierung mit Tools wie Power BI und Tableau Technische Expertise: Erfahrung in Datenmodellierung (Data Vault, dimensionale Modellierung), Aufbau von Analytics-Architekturen und Datenintegration Cloud-Know-how: Fundierte Kenntnisse in Microsoft Azure/Fabric oder Snowflake sowie tiefgehende Erfahrung mit Databricks Sicherer Umgang mit SQL, Python und gängigen BI-Tools (Power BI, Tableau, QlikSense) Moderner Tech-Stack und spannende Projekte 30 Tage Urlaub Betriebliche Altersvorsorge, JobRad und Option auf Firmenwagen Vielfältige Weiterbildungsangebote und interne Communities Absicherung bei Krankheit (bis zu 6 Monate Lohnfortzahlung) Gehaltsinformationen Es wird eine faire und leistungsgerechte Vergütung geboten.
Analyse und Auswertung großer Datenmengen (Outbound-Datenanalyse, Data Mining)Entwicklung und Implementierung von Datenmodellen zur ProzessoptimierungNutzung von Google Cloud Platform (GCP) für Datenmanagement und AnalyseAufbau von skalierbaren Datenpipelines und ETL-ProzessenZusammenarbeit mit internen Fachbereichen zur Digitalisierung und AutomatisierungLangfristige strategische Projekte zur Verbesserung der Datenverfügbarkeit und Geschwindigkeit Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Data Science, Mathematik, Statistik oder vergleichbarer FachrichtungErfahrung als Data Scientist oder in einer ähnlichen RolleFundierte Kenntnisse in:Google Cloud Platform (BigQuery, AI/ML-Services)Programmiersprachen: Python, SQLData Analytics, Machine Learning, Data MiningErfahrung mit ETL-Prozessen und Cloud-ArchitekturenAnalytisches Denken, strukturierte Arbeitsweise und KommunikationsstärkeSehr gute Deutsch- und Englischkenntnisse Abwechslungsreiche Tätigkeit in einem renommierten UnternehmenAngenehmes Arbeitsklima Ein hoch motiviertes Team und ein offener KommunikationsstilJährlicher Urlaubsanspruch von 30 Tagen Ihr Kontakt Referenznummer 854939/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Diese Masterthesis wird von unseren Expert:innen des Competence Centers Data & AI begleitet.Regelmäßige Feedbackgespräche: Wir werden regelmäßig Feedback austauschen, um deinen Fortschritt zu überprüfen und deine Entwicklung zu fördernHybrides Arbeiten: In Abstimmung mit deiner Führungskraft wählst du aus einer Kombination von Remote-Arbeit und Büro-Präsenz, für mehr Flexibilität und FreiheitGroßzügige Gleitzeitregelung: In Abstimmung mit deiner Führungskraft legst du deine Arbeitszeiten nach deinen Präferenzen fest, um deinen persönlichen Bedürfnissen gerecht zu werdenLea Teppert, Specialist Recruiting & HR Marketing jobs@mm-software.com Tel.: +49 7724 9415-34 Bewirb dich gerne per du und nutze unsere Vornamen!
Power BI) sowie Unterstützung bei der laufenden Datenbereitstellung für das Projektteam Unterstützung bei der technischen Dokumentation, bei Abstimmungen mit den Fachbereichen und bei projektbezogenen Aufgaben der operativen IT Koordination Kenntnisse in Power BI zwingend erforderlich Verständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-Lösungen Erfahrung in Projekten, Data Engineering, Schnittstellen und Datenintegration Technologisches Know-how (mind. in mehreren Bereichen) Kenntnisse in Python, Git, CI/CD Wissen in ETL-/ELT-Prozesse, z.B. über REST-APIs SQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche Altersvorsorge Betreuung im gesamten Bewerbungsprozess Ein renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865475/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Power BI) sowie Unterstützung bei der laufenden Datenbereitstellung für das ProjektteamUnterstützung bei der technischen Dokumentation, bei Abstimmungen mit den Fachbereichen und bei projektbezogenen Aufgaben der operativen IT Koordination Kenntnisse in Power BI zwingend erforderlichVerständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-LösungenErfahrung in Projekten, Data Engineering, Schnittstellen und DatenintegrationTechnologisches Know-how (mind. in mehreren Bereichen)Kenntnisse in Python, Git, CI/CDWissen in ETL-/ELT-Prozesse, z.B. über REST-APIsSQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche AltersvorsorgeBetreuung im gesamten BewerbungsprozessEin renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865475/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Deine Aufgaben Sie analysieren bestehende aktuarielle Prozesse rund um Reserveanalysen, Abschlüsse nach IFRS und Solvency II sowie Planung und ReportingSie entwickeln und implementieren technische Lösungen zur Automatisierung von ArbeitsabläufenSie identifizieren Potenziale zur Prozessoptimierung und setzen diese aktiv um z.B. mit gängigen Programmiersprachen und DatenbanksystemenSie arbeiten standortübergreifend mit Teams in Frankfurt und Köln sowie mit anderen (inter-)nationalen Einheiten des Unternehmens zusammen Ihre Arbeit bietet Ihnen eine abwechslungsreiche Mischung aus technischer Entwicklung, Analyse und Zusammenarbeit mit verschiedenen Teams Deine Fähigkeiten Sie haben eine Leidenschaft für Prozesse, Daten und Zahlen und begeistern sich für neue TechnologienSie haben Berufserfahrung als Data Scientist oder Data Engineer, idealerweise im (aktuariellen) VersicherungsumfeldSie können Erfolge in der Prozessoptimierung und -automatisierung nachweisenSie programmieren gerne und haben vertiefte Kenntnisse in modernen Programmiersprachen wie R, Python oder SQLSie arbeiten eigenverantwortlich und strukturiert, sind teamfähig und treten souverän aufSie haben ein erfolgreich abgeschlossenes Studium in Data Science, Mathematik oder einem vergleichbaren FachgebietSie besitzen gute Excel-Kenntnisse; aktuarielle Grundkenntnisse sind von VorteilSie sprechen sehr gutes Deutsch und Englisch in Wort und Schrift.
Mentoring- und Buddy-Angebote: Profitiere von persönlicher Förderung und Unterstützung, die Dich gezielt begleiten – beim Aufbau Deiner Kompetenzen und beim gemeinsamen Gestalten unserer Projekte. Zeit für berufliche und persönliche Entwicklung: Mithilfe unserer Grow your Talent Platform kannst Du Deine berufliche und persönliche Entwicklung auf das nächste Level heben und Deine fachlichen und persönlichen Kompetenzen gezielt weiterentwickeln.
Mentoring- und Buddy-Angebote : Profitiere von persönlicher Förderung und Unterstützung, die Dich gezielt begleiten – beim Aufbau Deiner Kompetenzen und beim gemeinsamen Gestalten unserer Projekte. Zeit für berufliche und persönliche Entwicklung: Mithilfe unserer Grow your Talent Platform kannst Du Deine berufliche und persönliche Entwicklung auf das nächste Level heben und Deine fachlichen und persönlichen Kompetenzen gezielt weiterentwickeln.
Tätigkeiten: Potenziale erkennen: Analysiere Kundenanforderungen und entwickle datengetriebene Lösungen – von Analytics über Machine Learning bis GenAI.Strategien entwickeln: Konzipiere individuelle Data-&-AI-Strategien für vielfältige Use Cases.Lösungen skalieren: Entwirf zukunftsfähige Architekturen für Datenplattformen, ML-Pipelines und AI-Systeme.Technologien prüfen: Teste und empfehle passende Technologien, begleite Umsetzungsteams mit klaren Roadmaps.Business ausbauen: Unterstütze Pre-Sales-Aktivitäten, Marktanalysen und die Weiterentwicklung datenbasierter Geschäftsbereiche.Angebote mitgestalten: Bringe deine Ideen in Lösungskonzepte, Kalkulationen und Präsentationen ein.Akademischer Hintergrund: Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik, Computer Science oder eine vergleichbare Qualifikation.Erfahrung: Mehrjährige Erfahrung in der Konzeption und Umsetzung moderner Datenplattformen, ML-Lösungen und AI-Systeme.Technologiekompetenz: Fundierte Erfahrung mit Azure, Databricks oder AWS sowie in Python, SQL, Docker, CI/CD-Pipelines und Infrastructure as Code.Fachliches Know-how: Tiefes Verständnis moderner Datenarchitekturen, MLOps und Data Governance.Arbeitsweise: Kombination aus konzeptioneller Stärke, analytischem Denken und pragmatischer Hands-on-Mentalität.Kommunikationsstärke: Fähigkeit, komplexe Themen klar und überzeugend zu vermitteln – in Deutsch und Englisch.Flexibilität: Wir bieten dir flexible Arbeitsmodelle mit großzügiger Gleitzeitregelung – wahlweise an einem unserer Standorte oder bis zu 100 % mobil innerhalb Deutschlands.Einarbeitung & Entwicklung: Deine individuelle Einarbeitung und Karriereförderung liegen uns am Herzen. Zusätzlich steht dir ein Coach zur Seite, der dich bei deiner beruflichen und persönlichen Entwicklung unterstützt.Gesundheit & Wohlbefinden: Wir unterstützen dich mit Angeboten wie Massagen, Hansefit, Dienstrad-Leasing sowie regelmäßigen Festen und Teamevents.Workation: Arbeite flexibel von verschiedenen Orten aus – mit unserem Workation-Angebot.Zusätzliche Benefits: Freue dich auf eine jährliche Prämie sowie Zuschüsse zur Altersvorsorge und Kinderbetreuung.Arbeitsklima: Ein ausgezeichnetes Betriebsklima mit hoher Mitarbeiterzufriedenheit macht uns besonders stolz.
Power BI) sowie Sicherstellung der verwendbaren Datenversorgung für das ProjektAnalyse fachlicher Anforderungen aus den Teilbereichen des Projekts sowie Ableitung von IT Architekturen und technischen KonzeptenAbstimmung mit beteiligten Fachbereichen, IT Teams und externen Partnern Tiefes Verständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-LösungenErfahrung in Projekten rund um Cloud-Datenplattformen, Data Engineering, Schnittstellen und DatenintegrationTechnologisches Know-how (mind. in mehreren Bereichen)Azure Data Services, insbesondere: Databricks, Data Factory, Azure DevOps, Power BIContainertechnologien (Docker, Kubernetes)Python, Git, CI/CDETL-/ELT-Prozesse, z.B. über REST-APIsSQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche BezahlungBetriebliche AltersvorsorgeBetreuung im gesamten BewerbungsprozessEin renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865599/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Aufbereitung und Bereitstellung von Daten für unterschiedliche technische und analytische Nutzungsszenarien im Projekt Entwicklung und Betreuung projektbezogener Reporting Lösungen (u.a. Power BI) sowie Sicherstellung der verwendbaren Datenversorgung für das Projekt Analyse fachlicher Anforderungen aus den Teilbereichen des Projekts sowie Ableitung von IT Architekturen und technischen Konzepten Abstimmung mit beteiligten Fachbereichen, IT Teams und externen Partnern Tiefes Verständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-Lösungen Erfahrung in Projekten rund um Cloud-Datenplattformen, Data Engineering, Schnittstellen und Datenintegration Technologisches Know-how (mind. in mehreren Bereichen) Azure Data Services, insbesondere: Databricks, Data Factory, Azure DevOps, Power BI Containertechnologien (Docker, Kubernetes) Python, Git, CI/CD ETL-/ELT-Prozesse, z.B. über REST-APIs SQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche Altersvorsorge Betreuung im gesamten Bewerbungsprozess Ein renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865599/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Mentoring- und Buddy-Angebote: Profitiere von persönlicher Förderung und Unterstützung, die Dich gezielt begleiten – beim Aufbau Deiner Kompetenzen und beim gemeinsamen Gestalten unserer Projekte. Zeit für berufliche und persönliche Entwicklung: Mithilfe unserer Grow your Talent Platform kannst Du Deine berufliche und persönliche Entwicklung auf das nächste Level heben.
Mentoring- und Buddy-Angebote : Profitiere von persönlicher Förderung und Unterstützung, die Dich gezielt begleiten – beim Aufbau Deiner Kompetenzen und beim gemeinsamen Gestalten unserer Projekte. Zeit für berufliche und persönliche Entwicklung: Mithilfe unserer Grow your Talent Platform kannst Du Deine berufliche und persönliche Entwicklung auf das nächste Level heben.
Ihre Aufgaben: Konzeption, Modellierung und Realisierung von Datawarehouse-/BI-Lösungen zusammen mit IT-Leitung und Fachkolleg*innenEntwicklung, Wartung und Optimierung von ETL-/ELT-Prozessen und DatenbankenDatenbankprogrammierung, Datenmodellierung und Prozessoptimierung zur DatenbereitstellungErfassung fachlicher Anforderungen und Umsetzung von Datenflüssen und -strukturenDurchführung von Ad-hoc-Analysen, Berichtserstellung und Dokumentationen Ihr Profil: Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Statistik, BWL oder vergleichbare Ausbildung (Quereinsteiger mit Erfahrung willkommen)Erfahrung in Datenbankprogrammierung (SQL), Datenmodellierung und Entwicklung von ETL-/ELT-StreckenIdealerweise Kenntnisse in Microsoft Azure Data Diensten (z. B. Azure SQL DB, Azure Data Lake, Azure Data Factory, Power BI)Kenntnisse in Python oder Java und erste Erfahrungen in Machine Learning von VorteilEngagement für neue Themen und LösungenTeamfähigkeit und strukturierte, selbstständige ArbeitsweiseVerständnis betriebswirtschaftlicher ZusammenhängeSehr gute Deutsch- und grundlegende Englischkenntnisse Was unser Kunde Ihnen bietet: Unbefristetes Arbeitsverhältnis mit abwechslungsreichen TätigkeitenVielfältige Entwicklungsmöglichkeiten und leistungsgerechte VergütungModernes Arbeitszeitmodell, mobiles Arbeiten, 30 Urlaubstage + freier Tag an Heiligabend und SilvesterGute ÖPNV-Erreichbarkeit und FahrradstellplatzWeitere Benefits: Firmenfitnessprogramm, JobRad, Zuschuss zur Kinderbetreuung, Zeitwertkonto (z.
Ihre Aufgaben: Design, Implementierung und Wartung von Datenpipelines für Modelltraining und Inferenz Konzeption, Entwicklung und Überwachung von Datenmodellen sowie ETL Prozessen zur Extraktion, Transformation und Beladung von Daten aus unterschiedlichen Quellen Anbindung und Integration weiterer Datenquellen in bestehende Data Lake und Data Warehouse Strukturen Verantwortung für Betrieb, Monitoring und Optimierung der entwickelten Datenaufbereitungslösungen Erstellung und Pflege von Dashboards zur Visualisierung und Präsentation von Daten Überführung explorativer Prototypen und Notebooks in stabile, automatisierte und produktive Prozesse Kontinuierliche Weiterentwicklung der technologischen Basis zur Verarbeitung großer Datenmengen hinsichtlich Performance, Skalierbarkeit und Stabilität Identifikation und Erprobung neuer Anwendungsfelder für KI gestützte Lösungen inklusive Konzeption, Machbarkeitsanalysen und produktiver Umsetzung Ihr Profil: Mindestens 3 Jahre praktische Berufserfahrung in der Konzeption, Entwicklung und Überwachung von Datenmodellen und Datenpipelines im Umfeld moderner Data Lakes und Data Warehouses Sehr gute Kenntnisse in der Entwicklung von ETL Prozessen sowie im Umgang mit strukturierten und unstrukturierten Datenquellen Erfahrung im produktiven Betrieb von containerisierten Anwendungen in Kubernetes und Docker Umgebungen Fundierte Kenntnisse in Software Design und Architektur sowie im API Design und in der technischen Dokumentation Praxis im Testen, Betreiben und Überwachen produktiver Daten und KI Systeme inklusive Monitoring und Alerting Sehr gute Python Kenntnisse mit mehrjähriger produktiver Anwendung Erfolgreich abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder vergleichbare Ausbildung Deutschkenntnisse auf Niveau B2 oder Muttersprache Rahmenparameter: Einsatzort: Remote (80%) & Hannover/München (20%) Laufzeit: 01.04.2026 - 31.12.2026 Auslastung: Vollzeit Ihr GECO-Ansprechpartner freut sich auf Ihre Kontaktaufnahme und über die Zusendung Ihrer aussagekräftigen Projekthistorie sowie Ihrer Honorarvorstellung.
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQLAnforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best PracticesAufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und MonitoringStrategische Beratung zu Datenarchitekturen, Technologien und ToolsAktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in Data Engineering und idealerweise auch Data ArchitectureSehr gute Kenntnisse in der Programmierung mit Python, SQL und ShellSicherer Umgang mit Infrastructure-as-Code, z.B.
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQL Anforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best Practices Aufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und Monitoring Strategische Beratung zu Datenarchitekturen, Technologien und Tools Aktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in Data Engineering und idealerweise auch Data Architecture Sehr gute Kenntnisse in der Programmierung mit Python, SQL und Shell Sicherer Umgang mit Infrastructure-as-Code, z.B.
Mentoring- und Buddy-Angebote: Profitiere von persönlicher Förderung und Unterstützung, die Dich gezielt begleiten – beim Aufbau Deiner Kompetenzen und beim gemeinsamen Gestalten unserer Projekte. Zeit für berufliche und persönliche Entwicklung: Mithilfe unserer Grow your Talent Platform kannst Du Deine berufliche und persönliche Entwicklung auf das nächste Level heben und Deine fachlichen und persönlichen Kompetenzen gezielt weiterentwickeln.
Modernisierung der Datenplattform (Oracle, Snowflake)Weiterentwicklung des Snowflake-Datenmodells und Aufbau moderner ELT-PipelinesAnalyse von Daten aus verschiedene Quellsystemen und Übersetzung in optimale Snowflake-ZielmodelleErstellung und Pflege unternehmensweiter Datenmodelle sowie ArchitekturstandardsMitarbeit an Maßnahmen zur Sicherstellung von Datenqualität und an der Weiterentwicklung von Data-Governance-ProzessenAbstimmung mit IT, Fachbereichen und internen Stakeholdern im Rahmen von Anforderungen, Datenmodellen und ArchitekturentscheidungenNutzung moderner Snowflake-Funktionen sowie Anwendung etablierter Entwicklungs- und Betriebsstandards (z. B. CI/CD, Automatisierung) Fundierte Berufserfahrung im Bereich Data Warehousing, Datenmodellierung oder DatenarchitekturSehr gute Kenntnisse in Snowflake (Modellierung, Performance, Berechtigungen, SQL)Erfahrung mit Oracle-Datenstrukturen und MigrationenUmfassende SQL-Skills und Erfahrung in Cloud-Umgebungen (AWS/Azure/GCP)Erfahrung mit ELT-/ETL-Tools (z.
Modernisierung der Datenplattform (Oracle, Snowflake) Weiterentwicklung des Snowflake-Datenmodells und Aufbau moderner ELT-Pipelines Analyse von Daten aus verschiedene Quellsystemen und Übersetzung in optimale Snowflake-Zielmodelle Erstellung und Pflege unternehmensweiter Datenmodelle sowie Architekturstandards Mitarbeit an Maßnahmen zur Sicherstellung von Datenqualität und an der Weiterentwicklung von Data-Governance-Prozessen Abstimmung mit IT, Fachbereichen und internen Stakeholdern im Rahmen von Anforderungen, Datenmodellen und Architekturentscheidungen Nutzung moderner Snowflake-Funktionen sowie Anwendung etablierter Entwicklungs- und Betriebsstandards (z. B. CI/CD, Automatisierung) Fundierte Berufserfahrung im Bereich Data Warehousing, Datenmodellierung oder Datenarchitektur Sehr gute Kenntnisse in Snowflake (Modellierung, Performance, Berechtigungen, SQL) Erfahrung mit Oracle-Datenstrukturen und Migrationen Umfassende SQL-Skills und Erfahrung in Cloud-Umgebungen (AWS/Azure/GCP) Erfahrung mit ELT-/ETL-Tools (z.
Ausbildungsinhalte bei EBZ Mitwirkung an der Vision SmartFactory@EBZ – der intelligente Produktionsprozess von Auftragserteilung bis Endauslieferung Entwicklung und Erprobung eigener, datenbasierter Innovationsansätze, zum Beispiel in den Bereichen Cyber-Physical Systems, AI-assisted Process Monitoring oder Workflow Automatization Agile Projektentwicklung in einem kleinen F&E-Team mit modernem Tech-Stack und kurzen Entscheidungswegen Anfertigung der Praxisarbeiten und der Bachelorarbeit an praxisnahen Themen Was Du mitbringst Abitur oder Fachhochschulreife Gute Noten in Mathematik, Informatik und Physik strukturierte und selbständige Arbeitsweise gute Englischkenntnisse Dauer des Studiums 3 Jahre DAS SIND WIR Die EBZ Gruppe gehört zu den Top-Zulieferern der Automobilbranche.
Ausbildungsinhalte bei EBZ Mitwirkung an der Vision SmartFactory@EBZ – der intelligente Produktionsprozess von Auftragserteilung bis Endauslieferung Entwicklung und Erprobung eigener, datenbasierter Innovationsansätze, zum Beispiel in den Bereichen Cyber-Physical Systems, AI-assisted Process Monitoring oder Workflow Automatization Agile Projektentwicklung in einem kleinen F&E-Team mit modernem Tech-Stack und kurzen Entscheidungswegen Anfertigung der Praxisarbeiten und der Bachelorarbeit an praxisnahen Themen Was Du mitbringst Abitur oder Fachhochschulreife Gute Noten in Mathematik, Informatik und Physik strukturierte und selbständige Arbeitsweise gute Englischkenntnisse Dauer des Studium s 3 Jahre DAS SIND WIR Die EBZ Gruppe gehört zu den Top-Zulieferern der Automobilbranche.
Ihre zukünftigen Aufgaben: Technische und fachliche Betreuung der Global Banking & Markets SystemeAgile Zusammenarbeit in einem interdisziplinären DevOps-Team im HandelsumfeldUnterstützung der Markt- und Marktfolgebereiche im täglichen GeschäftAnalyse, Design, Entwicklung, Umsetzung und Test von Erweiterungen und Änderungen (APIs) für FinanzmarktsystemeIntegration der lokalen IT-Architektur mit globalen Services der HSBC-GruppeKooperation mit einem internationalen Team Das bringen Sie mit: Abgeschlossenes Studium in Wirtschaftsmathematik, Wirtschaftsinformatik oder eine vergleichbare QualifikationErfahrung mit objektorientierter Programmierung und relationalen Datenbanken/SQLKenntnisse der FIS Cross-Asset Trading and Risk Platform (Front Arena) von VorteilInteresse an Finanzmärkten, -produkten und enger Zusammenarbeit mit FachabteilungenSchnelle Auffassungsgabe und starke analytische FähigkeitenMotivation für fachliche/technische Innovationen sowie kontinuierliche Verbesserung und AutomatisierungSelbstständige, strukturierte und projektorientierte ArbeitsweiseSehr gute Englischkenntnisse Ihre Vorteile in einer Festanstellung bei der Tempton Next Level Experts: Ein unbefristeter ArbeitsvertragSicherer Job mit spannenden Projekten bei Top-UnternehmenBezahlung mindestens nach GVP/DGB-TarifvertragUrlaubs- und Weihnachtsgeld plus vermögenswirksame LeistungenBis zu 30 Tage UrlaubExklusive Mitarbeiterrabatte bei zahlreichen namhaften MarkenSpannende Einblicke und verantwortungsvolle AufgabenIndividuelle Betreuung und aktive KarrierebegleitungPersönliches Onboarding und regelmäßige Feedback-Gespräche Haben Sie noch Fragen?
Auch Du sollst wachsen, daher ist uns Deine persönliche und fachliche Entwicklung besonders wichtig.Du profitierst von einem erfahrenen Mentor, individuellen Einarbeitungskonzepten und Weiterbildungen sowie Projektverantwortung.Um Dein Vertrauen in uns zurückzugeben, bieten wir Dir ein attraktives Gehaltspaket (z.B.
Aufgaben: Vertretung aller Servicebereiche unserer Data-Center-Lösungen auf dem deutschen MarktFörderung des Wachstums aller Servicebereiche gemeinsam mit den jeweiligen Data-Center- und JLL-SpezialteamsAusbau des JLL-Data-Center-Netzwerks in Deutschland und Knüpfen von Kontakten innerhalb der Branche und zu Partnern, einschließlich der Teilnahme an und des Vortrags auf BranchenveranstaltungenFührung funktionsübergreifender Teams zur Akquise und Durchführung von Beratungsprojekten sowie zur erfolgreichen Steuerung in einem komplexen Geschäftsumfeld.Zusammenarbeit mit Rechenzentrumsbetreibern, -eigentümern und -investoren sowie der Immobilienbranche, um deren Herausforderungen zu verstehen und JLL als bevorzugten Partner zu positionieren. Hauptaufgaben: Entwicklung und Leitung der strategischen Wachstumsstrategie für Rechenzentren von JLL in Deutschland mit einem beratungsorientierten Ansatz zur Umsatzsteigerung in diesem Sektor.Führung und aktive Einbindung auf allen internen und externen Ebenen, um den beratungsorientierten Vertriebsansatz für das Wachstum des gesamten Rechenzentrumsgeschäfts zu verkörpern.Koordination der JLL-Rechenzentrums-Community über alle Geschäftsbereiche hinweg in Deutschland.Aktive Marktpräsenz durch Teilnahme an Veranstaltungen, Mitwirkung als Vordenker in Panels und anderen Vorträgen sowie die Vermarktung von JLL und des Rechenzentrumsangebots in der Branche.Gewährleistung exzellenter Kundenbetreuung und -services durch Pflege und Ausbau professioneller Beziehungen auf Augenhöhe und zu Sponsoren innerhalb der Kundenorganisation.Festlegung von Leistungen, Ressourcenbedarf und Arbeitsplänen mit Kunden und internen Abteilungen.Erstellung von Angeboten und Vertragsbedingungen in Zusammenarbeit mit den relevanten JLL- und JLL-Rechenzentrums-Teams.Sie managen mehrere Projekte mit hoher Priorität in der Region und stellen die Einhaltung der Kundenvorgaben sicher.Sie führen Finanzanalysen durch und erstellen Business Cases.Sie teilen Ihr Wissen zu einem breiten Spektrum an Themen der Rechenzentrumsberatung, darunter Nachhaltigkeit, Lieferkette, physische Sicherheit, technologische Innovation und Betrieb.
Sehr gute Kenntnisse in der Programmierung (Python oder C#) sowie Erfahrung in der Entwicklung und Wartung von Applikationen Know-how in Datenanalyse und -aufbereitung, inkl. sicherem Umgang mit Microsoft Power BI (Datenmodelle, DAX, Dashboards) Erfahrung mit Microsoft Power Platform (Power Apps) und SharePoint (Listen, Workflows, Berechtigungen) Kenntnisse im Umgang mit Datenbanken (z.
Ihre Aufgaben Vor- und Nachbereitung von Terminen und Meetings inkl. der ProtokollführungTerminplanung und -koordinationMitarbeit in ProjektenDokumentation von ProzessenSchnittstellenfunktion zwischen den Abteilungen Ihr Profil Erfolgreich abgeschlossene kaufmännische Berufsausbildung Berufserfahrung im Projektmanagement bzw. in der ProjektassistenzIdealerweise Berufserfahrung in einem IndustrieunternehmenGute Grundkenntnisse in EnglischDer sichere Umgang mit den gängigen MS-Office-Anwendungen wird vorausgesetztEigenständige und zuverlässige ArbeitsweiseStets freundliches und kommunikatives Auftreten Das wird Ihnen geboten Einen modernen Arbeitsplatz und ein spannendes Aufgabengebiet in einer zukunftssicheren Branche Interkulturelle Zusammenarbeit und kurze Kommunikationswege - auch über Ländergrenzen hinweg Eine offene Unternehmenskultur und Vertrauensarbeitszeit für ein freies und selbstbestimmtes Zeitmanagement Gezielte Mitarbeiterförderung: Fachliche Weiterbildung und Entwicklung der persönlichen Fähigkeiten in unserer hauseigenen Academy Vielfältige Corporate Benefits in Bezug auf Gesundheit, Sport und Mitarbeiterevent PS Direkt GmbH & Co.
*Geschlecht (d/m/w) egal, Hauptsache luftfahrtbegeistert✈ Abgeschlossenes Studium in Informatik, Datenverarbeitung oder Nachrichtentechnik mit einschlägiger Berufserfahrung ✈ Mehrjährige Erfahrungen bei der Entwicklung und Einführung von Architekturvorgaben, der Umsetzung von Data-Governance-Ansätzen sowie beim Aufbau einer Datenorganisation ✈ Fundierte Kenntnisse in modernen Datenarchitekturen und Datenmodellen, v.a. auch in Cloud-Technologien und API-Architekturen ✈ Idealerweise Kenntnisse in SWIM (System Wide Information Management) ✈ Erfahrung im Einsatz von Werkzeugen, Tools und Anwendungen für Datenmanagement, -governance und -modellierung ✈ Erfahrung in Projektleitung und Arbeitsgruppen, auch im internationalen Umfeld ✈ Verhandlungssichere Englischkenntnisse in Wort und Schrift32 Tage bezahlte Freistellung (u.a.
Du übersetzt fachliche Anforderungen in klare, umsetzbare Software-Lösungen. Als Bindeglied zwischen Anwendern und Entwicklung gestaltest du damit die Weiterentwicklung von edlohn aktiv mit: von der fachlichen Ausarbeitung gesetzlicher Änderungen oder neuer Features bis hin zur erfolgreichen Auslieferung und Kommunikation an unsere Kunden.------ Sehr gute Kenntnisse in der Lohn- und Gehaltsabrechnung (bei einem Dienstleister/Steuerberater oder direkt beim Arbeitgeber) inkl. relevanter Meldeverfahren (z.
Ihre Aufgaben: Sie entwickeln und implementieren Strategien für unsere Softwarelandschaft Sie arbeiten eng mit den Business Analysten im Team zusammen, um Anforderungen gezielt zu steuern Sie tauschen sich mit anderen Prozesspartnern aus und bauen so das „Bigger Picture“ weiter aus und verfestigen es Sie integrieren und entwickeln neue Software und Prozesse in den BizDevOps-Teams Sie treiben Innovationen und neue Technologien, wie Cloud und Künstliche Intelligenz, in unserem Team voran Sie arbeiten in einem motivierenden Umfeld in einem internationalen Team und haben die Möglichkeit, die implementierten Lösungen unmittelbar im Erprobungsbetrieb zu erleben Ihr Profil: Abgeschlossenes Studium in einem IT- oder Technikbereich (Informatik, Software Engineering, Wirtschaftsinformatik, Elektrotechnik / Elektronik) Mehrjährige Erfahrungen in Software Engineering oder einem ähnlichen Bereich (React, Typescript, Javascript, Java, C, Database Query Languages) Mehrjährige Erfahrungen im Projekt Management Mehrjährige Erfahrungen zur agilen Arbeitsweise Erfahrungen in IT bezogenen Systemen wie GitHub, AWS, Datenbanken (SQL, NoSQL, DocumentDB) Erfahrungen und Einblicke in die E/E Entwicklungs- und Absicherungsprozesse Interesse an E/E Funktionen im Fahrzeug, Digitalisierung sowie deren stetige Weiterentwicklung Verhandlungssichere Deutsch- und Englischkenntnisse Vorteile für Mitarbeiter: Unbefristeter Arbeitsvertrag 30 Tage Urlaub Home Office Flexible Arbeitszeiten mit minutengenauer Erfassung der Mehrarbeit Weiterbildungs- und Qualifizierungsmöglichkeiten Urlaubs - und Weihnachtsgeld nach Betriebszugehörigkeit Kundenspezifische Mitarbeiterrabatte Betriebliche Altersversorgung Die advanced engineering GmbH ist seit vielen Jahren erfolgreich darin, Fach- und Führungskräfte an mittelständische Unternehmen und Großkonzerne in den Bereichen Automobiltechnik und Fahrzeugtechnik sowie anderen technischen Branchen in München und Bayern zu vermitteln.
B. durch den Einsatz von Terraform.Du hast langjährige Erfahrung in der Entwicklung robuster Datenpipelines mit verschiedenen Quellsystemen.Du arbeitest lösungsorientiert, strukturiert und gerne im Team an komplexen Herausforderungen.
Unterstützung bei Implementierungskonzepten für Mandanten im Hinblick auf AI Act, Data Act & Co. Entwicklung von Konzepten für den Austausch nicht-personenbezogener Daten zwischen Unternehmen sowie für den Einsatzes von künstlicher Intelligenz (z.B. den Umgang mit General Purpose AI wie ChatGPT) Absicherung digitaler Inhalte Cloud Computing IT Outsourcing Plattform-Business/IOT-Plattformen Cyber Risks IT – Litigation / Konfliktlösung Was wir Dir bieten: Ein offenes dynamisches Team, das für Dich da ist, wenn es darauf ankommt Spannende internationale Mandate mit enger Einbindung und unmittelbarem Mandantenkontakt, damit Du von Beginn an wachsen kannst Vielfältige Karriereperspektiven und individuelle Entwicklungsmöglichkeiten Ein umfassendes Aus- und Weiterbildungsprogramm, das Dir ermöglicht, Deine persönlichen Stärken und fachlichen Interessen weiter auszubilden und zu vertiefen Die Möglichkeit eines mehrmonatigen Auslands-Secondments Was Du mitbringen solltest: Hervorragende juristische Qualifikationen und sehr gute Englischkenntnisse Zusatzqualifikationen wie ein LL.M. oder eine Promotion sind uns willkommen Interesse an wirtschaftlichen Fragestellungen Neugierde und Spaß an internationalen Herausforderungen Lust auf Teamwork und Eigenverantwortung Contact: Hanna Faillard - HR-Business Partner - +49 (89) 28628 -3207