Du möchtest Datenplattformen betreiben, die für unsere Kunden einen zentralen Stellenwert haben und darüber entscheiden, ob es in Zukunft erfolgreich bleibt? Dann bist du bei uns genau richtig.
Wir sind einer der weltweit größten Anbieter für IT und Business Consulting – und seit unserer Gründung im Jahr 1976 unabhängig und familiengeführt. In unseren anspruchsvollen Projekten lernst du laufend Neues. Interne und externe Trainings sowie dein individueller Entwicklungsplan ermöglichen es dir, deine Skills immer weiter auszubauen. Ob du dich vor allem fachlich weiterentwickeln oder ein Team leiten möchtest: Bei uns hast du die Wahl zwischen einer Fach- und Führungskarriere und kannst deinen Weg so gestalten, wie es zu dir passt.
Worauf wartest du noch? Wir sind gespannt auf dich und freuen uns schon, dich kennenzulernen.
• Als (Senior) DataOps Engineer (m/f/d) unterstützt du unsere Kunden im Betrieb von Data Pipelines und optimierst Daten- und Analyseplattformen mittels IaaS Tools (Terraform, CloudFormation, Azure Data Factory).
• Du automatisierst den Trainingsprozess von Modellen, die Bereitstellung und das Monitoring unter Anwendung von MLOps-Praktiken.
• Du legst Wert auf Transparenz und Stabilität. Monitoring, Alarming, Dashboards und Reporting gehören für dich dazu.
• Du förderst den DataOps Ansatz für Data Engineering, um die Bereitstellung von Daten, Tests und Monitoring zu automatisieren und setzt Best Practices ein, um die Effizienz und Qualität der Datenpipeline zu steigern.
• Du stellst die Gewährleistung der Datenqualität, Datenintegrität und Datenverfügbarkeit in der Cloud- und OnPrem - Umgebungen sicher.
• Du automatisierst den Trainingsprozess von Modellen, die Bereitstellung und das Monitoring unter Anwendung von MLOps-Praktiken.
• Du bringst mindestens 2 Jahre Berufserfahrung mit.
• Dabei hast du Erfahrung in der agilen Entwicklung mit Java und Python gesammelt und gelernt, moderne Hybrid-Cloud- und Cloud-Native-Analyseplattformen aufzubauen (z. B. AWS, Azure, On Premises).
• Du verfügst über mehrjährige Praxiserfahrung im Betrieb von Data Pipelines.
• Mit Identity Management und Cloud Security hast du dich ebenfalls bereits befasst.
• Du arbeitest gerne mit Methoden der agilen Softwareentwicklung wie Kanban, Scrum oder SAFe. (Bei uns hast du die Möglichkeit, eine SAFe-Zertifizierung zu erwerben.)
• Falls du Erfahrungen im Bereich Data Scientist mitbringst, ist das ein großes Plus.
• Du beherrschst Englisch fließend in Wort und Schrift, Deutsch (B2) wünschenswert.
WAS WIR BIETEN:
• Bei uns findest du Kolleg:innen, mit denen die Zusammenarbeit Spaß macht. Wir begegnen uns offen, duzen uns über alle Positionen hinweg und denken nicht in Hierarchien oder Silos.
• Du profitierst von flexiblen Arbeitszeiten und Hybrid Work: In der Regel arbeitest du zu Hause, kannst aber auch an einen unserer Standorte kommen und bist nur bei Bedarf beim Kunden vor Ort – das könnte etwa einmal in zwei Wochen sein.
• Das Kundenunternehmen, für das du arbeitest, ist meist ganz in deiner Nähe – weil