Data Engineer AWS H/F

Résumé du poste
CDI
Nantes
Télétravail fréquent
Salaire : Non spécifié
Expérience : > 4 ans
Compétences & expertises
Data engineering
GitLab CI
Terraform
PostgreSQL
DBT
+6

RCA
RCA

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

Tu rejoindras l’équipe Data de RCA, composée de 18 personnes (Data Engineers, PM, Analystes, ML, développeurs, etc.), au cœur de nos enjeux produit, cloud et performance.

Ton rôle : concevoir, faire évoluer et maintenir nos pipelines data pour servir à la fois nos utilisateurs internes (outils d’aide à la décision) et nos clients externes (API exposées à destination des experts-comptables).

Tes missions :

  • Concevoir des pipelines batch & streaming robustes, scalables et maintenables
  • Participer à la migration vers un traitement en temps réel (Kafka)
  • Dockeriser les environnements Python et les intégrer aux pipelines CI/CD
  • Concevoir et mettre en œuvre des architectures data
  • Déployer des composants AWS avec Terraform en lien avec l’équipe plateforme (IAM, S3, EKS, ECS, etc.)
  • Participer à la mise en place d’une observabilité Data (logs, qualité, monitoring)
  • Accompagner les Data Analysts & PM dans l’industrialisation des solutions
  • Travailler dans une logique "data as a product" : forte proximité avec les usages

Stack & Environnement :

  • Cloud : AWS (IAM, S3, RDS, EKS, ECS, DMS…)
  • Data Engineering : Airflow, DBT, Kafka, Terraform
  • Développement : Python (Poetry, Pytest, Black), SQL
  • Stockage : Snowflake, PostgreSQL
  • CI/CD : GitLab CI
  • BI : Holistics, ThoughtSpot
  • ML Ops : début d’implémentation, présence d’un Data Scientist + Ingénieur ML

Enjeux & projets :

  • Migration progressive vers du streaming (Kafka)
  • Mise en place de solutions d’observabilité et de gouvernance data
  • Automatisation et montée en puissance sur les sujets MLOps / IA générative
  • Vision produit forte : la donnée est un levier métier et business clé

Profil recherché

Profil :

  • 3 à 5 ans d’expérience en Data Engineering (ou plus si affinités !)
  • Très bonne maîtrise de Python, AWS, ETL/ELT
  • Connaissance de Snowflake, Airflow, Terraform, Kafka appréciée
  • Intérêt pour les enjeux Ops : CI/CD, monitoring, performance
  • À l’aise en environnement collaboratif, agile, avec une forte autonomie

Poste en CDI basé à Nantes (jusqu’à 3 jours de télétravail possible)

Envie de rejoindre une aventure collective qui façonne la facture électronique de demain ?

Rejoignez le Village Connecté !

Informations supplémentaires

Process de recrutement : 1er échange (visio ou présentiel) et 2e RDV physique (test technique (30 min), debrief + échange avec l’équipe)

 

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.