Tato pozice již není k dispozici.

Data Engineer H/F

Plný úvazek
Boulogne-Billancourt
Plat: Neuvedeno
Několik dní doma
zkušenosti: > 5 let
Vzdělání: Magisterský stupeň vzdělání

Renault Digital
Renault Digital

Máte zájem o tuto nabídku?

jobs.faq.title

Pozice

Popis pozice

Dans le cadre de son programme Industrie 4.0, Renault développe depuis 2017 sa propre plateforme pour connecter et agréger les données industrielles des 22 sites du groupe et de plus de 2500 machines.

Fort de partenariats stratégiques signés avec Google Cloud (stack data full GCP), Renault Digital est à la recherche d’un data Engineer au sein du Pôle Architecture et Data pour mettre en place des chaînes de traitement de données répondant à de nouveaux besoins métiers.

Vous collaborerez au jour le jour avec les équipes métiers ainsi qu’avec les autres fonctions du Pôle Archiecture & Data (Data Analysts et Scientists, architectes, …), exploitant des téraoctets de données (événements en mode streaming, traitements en batch et temps réels et les appels aux APIs) afin entre autres d’alimenter des modèles de machine learning (segmentation clients, détection automatiquement des pannes des véhicules, …).

Responsabilités principales :

  • Participer aux phases de framing, MVP et release des produits, services et APIs orientés data ;

  • Argumenter les choix d’architecture des projets et de la plateforme datalake sur GCP ;

  • Contribuer à la valeur métier des produits orientés Data s’appuyant sur le Datalake, en mettant en place des chaînes bout en bout de traitement de la data, de l’ingestion à l’exposition d’APIs et à la visualisation des données et des solutions ML/DS ;

  • Être garant de la qualité des données transformées dans le Datalake, du bon fonctionnement des chaînes de traitement et de l’optimisation de l’utilisation des ressources des ressources cloud ;

  • Proposer des standards d’architecture et de développement ;

  • Être force de proposition, innovant et bienveillant.

Environnement Technique :

Spark, Scala, Python, Java, Airflow, SQL, Google Cloud Platform (BigQuery, Cloud Storage, PubSub, Beam, Dataflow, Cloud ML, TensorFlow, Kubernetes), Git, Docker, JSON, Bash, Spotfire


Požadavky na pozici

  • Expérience en développement Spark, Scala, Python et requêtage SQL sur des gros volumes de données ;

  • Appétence pour la data : validation, transformation, analyse, valorisation ;

  • Expérience de développement et orchestration de chaines ETL complexes via Airflow ou équivalent ;

  • Pratique de la méthodologie agile (Agile Scrum et/ou Kanban) ;

  • Avoir utilisé des services cloud (préférablement GCP) ;

  • Capacité à échanger en anglais technique écrit et oral ;

  • Être prêt à relever avec nous les challenges de la data !!


Proces náboru

  1. Premier call avec les chargées de recrutement
  2. Entretien technique avec les opérationnels
  3. Entretien RH

Chcete se dozvědět více?

Tato volná pracovní místa by vás mohla zajímat!

Tyto společnosti rovněž nabírají pracovníky na pozici "{profese}".

Podívat se na všechny nabídky