Cette offre n’est plus disponible.

Data Platform Engineer F/H

Résumé du poste
CDI
Nanterre
Salaire : Non spécifié
Télétravail non autorisé
Expérience : > 2 ans
Éducation : Bac +5 / Master
Compétences & expertises
Sens de l’observation
Connaissance de l'industrie automobile
Gestion de projets
Compétences en communication
Adaptabilité
+15

EDF
EDF

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

Au croisement d'enjeux essentiels et captivants, rejoignez un groupe à la dimension internationale,
champion de la croissance bas carbone et activement engagé dans la lutte contre le réchauffement
climatique !

Rejoignez nos équipes qui développent et maintiennent les applications du Groupe EDF !

Une direction dynamique, à l'écoute de ses équipes et avec des méthodes de travail innovantes.
Le Centre de Compétences Solutions Lab. est un département dont la vocation est de faire émerger et d'industrialiser de nouvelles solutions numériques au service des métiers du Groupe. Vous rejoindrez le groupe Intelligence Artificielle-Data Management au service des métiers du Groupe EDF dans leur transformation numérique.

Votre mission ?
En tant que Data Platform Engineer, vous accompagnerez les équipes en binôme avec le system architect sur des missions de mise en place de projets orientés Data et IA et contribuerez particulièrement à la mise en place des plateformes data modernes pour le Groupe, notamment les plateformes Cloud (GCP, Cloud interne) :

Analyser les besoins

  • Animer les ateliers afin d'étudier et cadrer les besoins des équipes
  • Définir les méthodologies de déploiement et plans de migration
  • Contribuer aux dossiers d'architecture et spécifications techniques
  • Très bonne compréhension de l'écosystème Cloud et des pratiques DevOps.


Construire les architectures de données

  • Contribuer à l'implémentation des briques data dans le respect du cadre d'architecture, des contraintes cybersécurité et de conformité réglementaire (RGPD)
  • Contribuer à faire évoluer le cadre de cohérence technique data : principes d'architecture, technologies, langages technique, patterns, bonnes pratiques … ;Contribuer à la mise en oeuvre des solutions de briques data
  • Travailler avec les équipes DevSecops pour la mise en place de pipeline et automatisation
  • Etudier les évolutions vers des architectures containerisées pour la plateforme interne
  • Etudier les scénarios de migrations possibles ou l'intégration de services managés Cloud au sein des socles existants
  • Participer au support des briques data conçues et réalisées

Et après ?

Cette mission est un moyen idéal d'accroître votre valeur professionnelle, vos compétences et de progresser dans la filière numérique (pilotage, expertise, projet, management) ou vers d'autres directions du Groupe.

Notre équipe fonctionne en mode agile, avec 50% de télétravail par semaine, du management visuel et surtout le plaisir de collaborer sur des sujets innovants.


Profil recherché

De formation Bac+5 (école d'ingénieur ou équivalent universitaire), vous avez au moins 3 ans d'expérience dans la gestion de projets informatique, de préférence dans l'automatisation.
Vous êtes familier(e) avec les problématiques run et sensible à la qualité du delivery.

Compétences attendues :

  • Expérience en gestion de projet notamment agile
  • Connaissances sur les nouvelles technologies (connaissance d'une technologie d'automatisation appréciée)
  • Capacité à conceptualiser et à formaliser un processus
  • Capacité à abstraire la complexité technique face au métier
  • Bonne aisance rédactionnelle et orale
  • Bon relationnel, pédagogie et goût pour le travail en équipe
  • Esprit d'analyse, sens de l'écoute
  • Curiosité et appétence pour la découverte de nouveaux domaines, adaptabilité
  • Organisation, capacité à travailler sur plusieurs projets en parallèle
  • A l'aise sur les langages SQL, Python (optionnel : Java, Scala)
  • Bonne connaissance du framework de calcul distribué Spark et de solution ETL
  • Pratique sur les différentes briques de stockage (SQL, DWH, NoSQL, Search engine,Streaming...).
  • Bonnes connaissances de développement Cloud, IaaC, des chaînes CI/CD, machine learning.
  • Contribuer à la veille technologique permettant de proposer des idées novatrices pour le périmètre
  • Maîtrise d'au moins un Cloud Provider (GCP, AWS…).
  • Une expérience avec des outils d'automatisation d'infrastructure (Terraform, Ansible, Pulumi...).
  • Être à l'aise avec au moins un outil de CI/CD (GitLab CI, Jenkins, GitHub Actions…)
  • Une bonne connaissance de Docker et de Kubernetes serait un plus.

Notre processus de recrutement :

Un entretien de présélection avec le cabinet de recrutement partenaire
Un test psycho technique
Un entretien avec ton futur manager
Un entretien avec le chef du département et la responsable recrutement.

Conformément aux engagements pris par EDF SA en faveur de l'accueil et de l'intégration des personnes en situation de handicap, cet emploi est ouvert à toutes et à tous.

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres