Expert(e) Data Platform GCP / Kubernetes

Résumé du poste
CDI
Paris
Télétravail fréquent
Salaire : Non spécifié
Expérience : > 7 ans
Éducation : Bac +5 / Master
Compétences & expertises
Aptitude à résoudre les problèmes
Veille technologique
Hadoop
Kubernetes
Kafka

Les Filles & Les Garçons de la Tech
Les Filles & Les Garçons de la Tech

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

Envie de donner de l’impact à votre expertise technique au sein d’une entreprise engagée ?

Au sein d’une équipe data transverse à vocation plateforme, expertise et innovation, le/la consultant(e) interviendra sur la conception, le déploiement et l’évolution de services data modernes en environnement cloud et Kubernetes. Le rôle vise à accompagner les équipes data du client sur des problématiques d’architecture, d’industrialisation et de bonnes pratiques, avec une forte capacité de prise de recul et de compréhension des choix techniques. Vos missions principales:

1- Conception & expertise data plateforme

  • Concevoir et déployer des services data cloud native (batch et/ou streaming)

  • Participer à la définition et à l’évolution des architectures data sur GCP

  • Accompagner les équipes projets dans l’adoption de Kubernetes et des bonnes pratiques DataOps

  • Challenger les choix techniques et proposer des solutions pérennes et scalables

2- Industrialisation & DevOps data

  • Mettre en place des pipelines de déploiement et d’exploitation de services data

  • Automatiser l’industrialisation des solutions data (infra as code, CI/CD)

  • Contribuer à la fiabilité, la performance et l’observabilité des plateformes data

3 - Accompagnement & transverse

  • Intervenir en support d’expertise auprès des équipes data du groupe

  • Participer à l’animation de communautés techniques (data, plateforme, open source)

  • Contribuer à la veille technologique, aux POC et au partage de retours d’expérience

Environnement technique : GCP, Kubernetes, Hadoop, Kafka, IA

Pourquoi nous rejoindre ?

Chez FGTECH, nous croyons en une approche humaine et responsable du numérique. Nous sommes certifiés B Corp, Impact France et avons adopté le statut d’entreprise à mission dès notre création fin 2020.

Ce qui attire les candidat(e)s : notre modèle inédit

  • Organisation 4+1 : 4 jours dédiés aux missions clients et 1 jour pour son épanouissement personnel (formations, missions associatives, temps pour soi)

  • Engagement sociétal : participation à des actions associatives et environnementales (ramassage de déchets, reforestation, etc.)

  • Flexibilité : télétravail encouragé pour réduire notre empreinte écologique et améliorer la qualité de vie

  • Culture d’entreprise : un environnement simple, joyeux et sérieux, où l’excellence, l’humanisme et la solidarité forment un tout


Profil recherché

Solide expertise en architectures data cloud native (batch et streaming) sur GCP, avec une maîtrise de Kubernetes en environnement de production. Expérience confirmée en data engineering (Hadoop, Kafka) et en industrialisation des plateformes data (DataOps, CI/CD, Infrastructure as Code). Capacité à concevoir des solutions scalables, fiables et observables, et à accompagner les équipes dans l’adoption des bonnes pratiques. Forte appétence pour le travail transverse, la veille technologique et l’innovation.

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres