Data Engineer

group24 AG
1 month ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
German

Job location

Tech stack

Artificial Intelligence
Airflow
Big Data
Databases
Information Engineering
Extract Transform Load (ETL)
Data Structures
DevOps
Python (Programming Language)
NoSQL
SQL Databases
Apache Spark
Containerization
Kubernetes
Information Technology
Apache Kafka
Machine Learning Operations

Job description

Du möchtest moderne Daten- und KI-Infrastrukturen mitgestalten und große Datenmengen effizient nutzbar machen?Als Data Engineer spielst Du eine zentrale Rolle beim Aufbau, der Integration und der Verarbeitung von Datenströmen, die unsere KI-Anwendungen und Modelle antreiben. Du arbeitest eng mit unseren KI-Entwicklern sowie dem DevOps-Team zusammen und gestaltest umfassende Datenpipelines, mit der wir die Systeme in unserer Kubernetes-Infrastruktur miteinander verbinden können., Du entwickelst und betreibst fehlertolerante Datenpipelines (ETL/ELT), mit denen große Datenmengen zuverlässig gesammelt, verarbeitet und bereitgestellt werden.

Du integrierst externe Datenquellen, Schnittstellen und Services in unseren KI-Stack und sorgst für reibungslose Datenflüsse zwischen Anwendungen, Modellen und Infrastruktur.

Du unterstützt den Aufbau und Betrieb von MLOps-Pipelines, zum Beispiel für Modelltraining, Evaluation und Deployment.

Du entwickelst und pflegst Datenmodelle, Datenstrukturen und Speicherkonzepte für SQL-, NoSQL- und Objekt-Storage-Systeme.

Du stellst sicher, dass Datenqualität, Monitoring und Observability durch geeignete Tools und Prozesse gewährleistet sind.

Du arbeitest in einem agilen Projektumfeld mit einem engagierten Team zusammen.

Requirements

Du bringst ein abgeschlossenes Studium im Bereich Informatik, Data Science, Elektrotechnik oder eine vergleichbare Qualifikation mit.

Du hast bereits Erfahrung im Data Engineering und kennst gängige Tools wie Airflow, Kafka oder Spark.

Du hast Erfahrung mit Datenbanken und Datenmodellierung (SQL, NoSQL, Object Storage).

Du bringst Erfahrung mit Containerisierung und Kubernetes mit, idealerweise in einer on-premises Umgebung.

Du verfügst über Kenntnisse im Bereich MLOps, beispielsweise in MLflow, Kubeflow oder vergleichbaren Frameworks.

Optimal wäre es, wenn Du bereits Programmierkenntnisse in Python mitbringst und Erfahrung mit DevOps-Prozessen hast.

Apply for this position