Votre environnement
Le métier Procurement est en pleine transformation et nécessite des outils performants pour gérer son réseau de fournisseurs, simuler des scénarios et anticiper les risques associés (logistiques, qualité, managériaux, sociaux-économiques, écologiques).
En s’appuyant sur les partenariats stratégiques avec Google Cloud (utilisant la pile complète de données GCP), la fonction Procurement a décidé de créer une nouvelle plateforme DATA et IA qui répondent aux défis actuels du secteur de la mobilité.
C’est pourquoi, nous sommes à la recherche d’un(e) Data Engineer au sein d’une direction procurement.
Ce rôle consistera à mettre en place une plateforme pour la qualification de fournisseurs et la gestion des risques d’approvisionnement futurs. Cette plateforme inclura également les nouveaux enjeux de réglementation ESG (Environnementaux, Sociaux et de Gouvernance) à l’échelle mondiale.
Vous bénéficiez de 2 jours de télétravail par semaine.
Vos missions
En qualité de Data Engineer vous êtes garant.e de l’accès qualitatif aux sources de données. Vous développez des outils permettant d’automatiser les traitements autour de la data (ingestion, stockage, transformation) afin d’en faciliter son exploitation par les équipes Data ainsi que par le reste des équipes informatiques. Vos principales missions sont :
Concevoir des solutions robustes permettant le traitement de volumes importants de flux de données
Assurer l’intégration de données provenant de sources multiples (applications ou extérieur à l’entreprise)
Définir et faire respecter les bonnes pratiques et règles à suivre autour des sujets d’ingestion, stockage et de transformation de la donnée
Construire l’architecture relative aux plateformes data ainsi qu’à ses composants
Critères ESG à bien connaitre ou venir du secteur de la chimie
Effectuer une veille technologique importante afin d’assurer que les plateformes data soient les plus efficientes possibles
Vous collaborerez au jour le jour avec les équipes métiers ainsi qu’avec les autres fonctions (Data Analysts et Scientists, architectes, …), exploitant des téraoctets de données (événements en mode streaming, traitements en batch et temps réels et les appels aux APIs) afin entre autres d’alimenter à terme des modèles de machine learning (segmentation fournisseurs, détection de risques, Tecno watch & market search…).
Votre profil
Vous êtes diplômé(e) d’un BAC+5 avec un parcours significatif dans l’informatique (Domaine DATA) avec au moins 3 années d’expérience.
Vous avez une appétence pour la DATA : validation, transformation, analyse, valorisation, et vous disposez d’une solide expérience en développement Java, Scala et Python et requêtage SQL sur des gros volumes de données.
Vous avez une expérience de développement et orchestration de chaines ETL complexes via Composer (GCP), Airflow ou équivalent.
Vous savez utiliser des services cloud Google Cloud Platform (BigQuery, Cloud Storage, PubSub, Beam, Dataflow, Kubernetes, Composer, Big Table, Firestore), Git, JSON, Bash, Docker.
Vous avez fait de l’administration et configuration de systèmes.
Vous avez une forte capacité de travailler dans un contexte multiculturel, vous avez un esprit orienté « utilisateur final » et vous faites preuve d’autonomie. La pratique du framework Agile Scrum/Kanban est acquise.
Vous avez une grande capacité d’analyse et savez prendre du recul. Vous faites preuve de rigueur et d’esprit de synthèse.
Vous avez un bon niveau d’anglais écrit et oral, facteur clé de réussite dans le poste (équipes internationales).
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.
Voir toutes les offres