Táto pozícia už nie je k dispozícii.

Data Engineer H/F

Zmluva na dobu neurčitú
Boulogne-Billancourt
Plat: Neuvedené
Niekoľko dní doma
skúsenosti: > 5 rokov
Vzdelanie: Magisterský stupeň vzdelania

Renault Digital
Renault Digital

Máte záujem o túto ponuku?

jobs.faq.title

Pozícia

Popis pracovnej ponuky

Dans le cadre de son programme Industrie 4.0, Renault développe depuis 2017 sa propre plateforme pour connecter et agréger les données industrielles des 22 sites du groupe et de plus de 2500 machines.

Fort de partenariats stratégiques signés avec Google Cloud (stack data full GCP), Renault Digital est à la recherche d’un data Engineer au sein du Pôle Architecture et Data pour mettre en place des chaînes de traitement de données répondant à de nouveaux besoins métiers.

Vous collaborerez au jour le jour avec les équipes métiers ainsi qu’avec les autres fonctions du Pôle Archiecture & Data (Data Analysts et Scientists, architectes, …), exploitant des téraoctets de données (événements en mode streaming, traitements en batch et temps réels et les appels aux APIs) afin entre autres d’alimenter des modèles de machine learning (segmentation clients, détection automatiquement des pannes des véhicules, …).

Responsabilités principales :

  • Participer aux phases de framing, MVP et release des produits, services et APIs orientés data ;

  • Argumenter les choix d’architecture des projets et de la plateforme datalake sur GCP ;

  • Contribuer à la valeur métier des produits orientés Data s’appuyant sur le Datalake, en mettant en place des chaînes bout en bout de traitement de la data, de l’ingestion à l’exposition d’APIs et à la visualisation des données et des solutions ML/DS ;

  • Être garant de la qualité des données transformées dans le Datalake, du bon fonctionnement des chaînes de traitement et de l’optimisation de l’utilisation des ressources des ressources cloud ;

  • Proposer des standards d’architecture et de développement ;

  • Être force de proposition, innovant et bienveillant.

Environnement Technique :

Spark, Scala, Python, Java, Airflow, SQL, Google Cloud Platform (BigQuery, Cloud Storage, PubSub, Beam, Dataflow, Cloud ML, TensorFlow, Kubernetes), Git, Docker, JSON, Bash, Spotfire


Preferované skúsenosti

  • Expérience en développement Spark, Scala, Python et requêtage SQL sur des gros volumes de données ;

  • Appétence pour la data : validation, transformation, analyse, valorisation ;

  • Expérience de développement et orchestration de chaines ETL complexes via Airflow ou équivalent ;

  • Pratique de la méthodologie agile (Agile Scrum et/ou Kanban) ;

  • Avoir utilisé des services cloud (préférablement GCP) ;

  • Capacité à échanger en anglais technique écrit et oral ;

  • Être prêt à relever avec nous les challenges de la data !!


Náborový proces

  1. Premier call avec les chargées de recrutement
  2. Entretien technique avec les opérationnels
  3. Entretien RH

Chcete sa dozvedieť viac?

Tieto pracovné ponuky by vás mohli zaujímať!

Tieto spoločnosti tiež prijímajú pracovníkov na pozíciu "{profesia}".

Zobraziť všetky pracovné ponuky