Cette offre n’est plus disponible.

Data Engineer H/F

CDI
Boulogne-Billancourt
Salaire : Non spécifié
Télétravail fréquent
Expérience : > 5 ans
Éducation : Bac +5 / Master

Renault Digital
Renault Digital

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

Dans le cadre de son programme Industrie 4.0, Renault développe depuis 2017 sa propre plateforme pour connecter et agréger les données industrielles des 22 sites du groupe et de plus de 2500 machines.

Fort de partenariats stratégiques signés avec Google Cloud (stack data full GCP), Renault Digital est à la recherche d’un data Engineer au sein du Pôle Architecture et Data pour mettre en place des chaînes de traitement de données répondant à de nouveaux besoins métiers.

Vous collaborerez au jour le jour avec les équipes métiers ainsi qu’avec les autres fonctions du Pôle Archiecture & Data (Data Analysts et Scientists, architectes, …), exploitant des téraoctets de données (événements en mode streaming, traitements en batch et temps réels et les appels aux APIs) afin entre autres d’alimenter des modèles de machine learning (segmentation clients, détection automatiquement des pannes des véhicules, …).

Responsabilités principales :

  • Participer aux phases de framing, MVP et release des produits, services et APIs orientés data ;

  • Argumenter les choix d’architecture des projets et de la plateforme datalake sur GCP ;

  • Contribuer à la valeur métier des produits orientés Data s’appuyant sur le Datalake, en mettant en place des chaînes bout en bout de traitement de la data, de l’ingestion à l’exposition d’APIs et à la visualisation des données et des solutions ML/DS ;

  • Être garant de la qualité des données transformées dans le Datalake, du bon fonctionnement des chaînes de traitement et de l’optimisation de l’utilisation des ressources des ressources cloud ;

  • Proposer des standards d’architecture et de développement ;

  • Être force de proposition, innovant et bienveillant.

Environnement Technique :

Spark, Scala, Python, Java, Airflow, SQL, Google Cloud Platform (BigQuery, Cloud Storage, PubSub, Beam, Dataflow, Cloud ML, TensorFlow, Kubernetes), Git, Docker, JSON, Bash, Spotfire


Profil recherché

  • Expérience en développement Spark, Scala, Python et requêtage SQL sur des gros volumes de données ;

  • Appétence pour la data : validation, transformation, analyse, valorisation ;

  • Expérience de développement et orchestration de chaines ETL complexes via Airflow ou équivalent ;

  • Pratique de la méthodologie agile (Agile Scrum et/ou Kanban) ;

  • Avoir utilisé des services cloud (préférablement GCP) ;

  • Capacité à échanger en anglais technique écrit et oral ;

  • Être prêt à relever avec nous les challenges de la data !!


Déroulement des entretiens

  1. Premier call avec les chargées de recrutement
  2. Entretien technique avec les opérationnels
  3. Entretien RH

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres