in Teilzeit oder Vollzeit
Start: ab sofort oder zu einem späteren Zeitpunkt
Standorte: Karlsruhe, Köln, München, Hamburg, Stuttgart, Pforzheim, Erlangen oder Berlin
Du möchtest Unternehmen dabei helfen, ihre Daten nutzbar zu machen und begeisterst dich für die automatisierte Verarbeitung großer Datenmengen? Wenn es dir außerdem wichtig ist, dich technologisch immer auf dem Laufenden zu halten und dein Wissen in Projekten direkt in die Praxis umzusetzen, dann bist du bei inovex genau richtig! Wir freuen uns jeden Tag darauf, unsere Kunden bei der Digitalisierung ihres Kerngeschäfts zu unterstützen. An erster Stelle steht bei uns der Anspruch, skalierbare Architekturen zu schaffen, die das Fundament für spätere Analysen und data-driven Services bilden.
Was du bei uns bewegen kannst
-
In cross-funktionalen Teams meisterst du IT-Projekte an der Spitze der technologischen Entwicklung und setzt agile Methoden in abwechslungsreichen Projekten ein.
-
Du konzipierst und implementierst Datenplattformen, Datenverarbeitungsprozesse und Daten-Services (z.B. über REST) als hochskalierbare, verteilte Systeme in der Cloud, on premise oder hybrid.
-
Du bist Expert:in für die Ende-zu-Ende-Integration von Daten-/ETL-Pipelines und das Deployment von Machine-Learning-Modellen bis hin zur Bereitstellung der Ergebnisse innerhalb bestehender IT-Systeme.
-
Du bist qualitätsgetrieben und entwickelst robuste Software (Clean Code, Unit Testing, CI/CD) in Python oder Java mit dem Ziel der Automatisierung von Datenverarbeitungsprozessen.
-
Du entwickelst und implementierst Software-Lösungen zur Verarbeitung polystrukturierter Daten mit Technologien aus dem Bereich der verteilten Datenverarbeitung und dem maschinellen Lernen, SQL- und NoSQL-Datenbanken im Public-Cloud oder Hadoop-Umfeld.
Wer gut zu uns passen würde
-
Du hast ein abgeschlossenes Studium im MINT-Bereich oder in einem vergleichbaren Studiengang und mehrere Jahre im Data Engineering oder im Machine Learning Bereich gearbeitet.
-
Du hast ein Engineering Mindset: Es ist dein Anspruch, Architekturen und Software möglichst automatisiert, wartbar und robust in Python, SQL oder Java auf die Straße zu bringen.
-
In der ML & Data Tooling-Landschaft behältst du den Überblick und hast bereits mit Technologien wie z.B. Databricks, Snowflake, Spark, Kafka, BigQuery, dbt, Airflow, Pytorch, TensorFlow, MLFlow oder SageMaker gearbeitet.
-
Du bist im Umgang mit Flask, Django oder FastAPI vertraut und verwendest Docker, um deine Applikationen als Container bereitzustellen.
-
Du konntest Erfahrung in der Cloud sammeln, z.B. in Azure, AWS oder GCP.
-
Du hast gute kommunikative Fähigkeiten und sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift.