Data Engineer - CDI - Paris

Resumen del puesto
Indefinido
Paris
Unos días en casa
Salario: No especificado
Experiencia: > 3 años
Competencias y conocimientos
Confidencialidad de los datos
Trabajo en equipo
Gestión de la documentación
General Data Protection Regulation (GDPR)
Colaboración y trabajo en equipo
+10

Yomoni
Yomoni

¿Te interesa esta oferta?

Preguntas y respuestas sobre esta oferta

El puesto

Descripción del puesto

💙 Rejoins une fintech qui construit la Data de demain

🚀 Pourquoi ce poste ?
Chez Yomoni, on veut rendre l’épargne simple, transparente et accessible à tous.
Notre mission : permettre à chaque épargnant de faire grandir son argent avec confiance.

Pour y parvenir, la donnée est au cœur de tout :
elle éclaire nos décisions stratégiques, alimente nos produits et soutient nos projets IA.

Nous venons de poser les bases d’une modern data stack (Snowflake, DBT, Fivetran, Hightouch) et cherchons aujourd’hui un(e) Data Engineer pour renforcer son architecture, fiabiliser ses pipelines et construire une infrastructure solide et scalable.

👉 Si tu veux construire plutôt que maintenir, et laisser ton empreinte dans une fintech en pleine croissance, ce poste est fait pour toi.

Tu rejoindras une équipe Data en expansion (Lead Data + Data Analyst confirmé),
au cœur des enjeux produit, métier et technologiques.
Ton rôle : garantir la robustesse, la scalabilité et la qualité de l’infrastructure data.

🎯 Tes missions :

1. Construire et maintenir des pipelines d’ingestion

  • Développer des pipelines d’ingestion hors connecteurs (APIs internes, fichiers SFTP, bases propriétaires, etc.).

  • Superviser et maintenir les flux existants (Fivetran et futurs outils).

  • Gérer l’orchestration (dbt, Airflow ou Dagster), l’historisation et la qualité des données.

  • Mettre en place du monitoring technique et des tests d’intégrité automatisés.

2. Industrialiser l’usinde de transformation (dbt)

  • Mettre en place et maintenir un CI/CD pour dbt (Pull Request, tests automatiques, déploiement).

  • Intégrer des tests de cohérence et de fraîcheur.

  • Surveiller les jobs (logs, scheduler, notifications).

  • Collaborer avec le Lead Data et le Data Analyst pour fiabiliser les modèles métiers.

3. Distribuer la donnée vers les outils métiers

  • Garantir que la donnée transformée arrive là où elle est utile : CRM, support, marketing, finance…

  • Étendre les cas d’usage non couverts par Hightouch (API custom, exports automatisés).

  • S’assurer de la fraîcheur, de la cohérence et de la traçabilité des données distribuées.

4. Monitoring, performance & data reliability

  • Mettre en place un monitoring global de la stack : fraîcheur, qualité, volumétrie, coûts Snowflake.

  • Définir et suivre des SLA de disponibilité et de mise à jour.

  • Automatiser les alertes et détections d’anomalies (Elementary, DataDog ou équivalents).

5. Sécurité, gouvernance et documentation

  • Gérer les accès Snowflake via un modèle RBAC clair (séparation dev/prod).

  • Participer à la gouvernance data et à la conformité RGPD.

  • Documenter les pipelines techniques et les process dans Confluence.

  • Contribuer à la traçabilité et à la classification des données sensibles.


⚙️ Notre modern stack Data

  • Ingestion : Fivetran, pipelines Python custom

  • Transformation : dbt Cloud

  • Warehouse : Snowflake

  • Activation / Reverse ETL : Hightouch

  • Documentation : Confluence, dbt Docs


Requisitos

Tu es passionné·e par la data et aimes construire des systèmes fiables et scalables.

  • 2 à 4 ans d’expérience en Data Engineering (ou équivalent)

  • Solides bases en SQL et Python

  • Bonne connaissance des architectures modernes ELT

  • Expérience sur au moins un entrepôt cloud (Snowflake, BigQuery, Redshift)

  • Maîtrise d’un outil de transformation (dbt) et d’un orchestrateur

  • Familiarité avec CI/CD, tests automatisés et infrastructure as code

  • Sensibilité à la sécurité, la qualité et la collaboration inter-équipe

Bonus :

  • Connaissance approfondie de Snowflake (optimisation, RBAC, coûts)

  • Expérience avec Terraform, Dagster ou Airflow

  • Notions de data quality frameworks (Elementary, Great Expectations)

  • Appétence pour les sujets IA / ML

✨ Ce que l’on t’offre

  • Une stack moderne avec de vrais choix techniques à faire

  • Un rôle clé dans la montée en maturité Data de Yomoni

  • Des collaborations directes avec le CTO et le Lead Data

  • Un environnement stimulant, exigeant et bienveillant

  • 2 séminaires par an pour renforcer les liens ✈

  • Un plan d’épargne entreprise maison et motivant

  • Une mutuelle Alan Blue (prise en charge à 70 %)

  • Tickets Restaurant (8 €, prise en charge à 60 %)

  • Des RTT pour souffler

  • 20 € remboursés sur ton forfait internet

  • Une salle de sport accessible

  • Et surtout : une équipe soudée autour d’un projet ambitieux 💙


Proceso de selección

  1. Entretien découverte avec Natacha (HR & Talent Manager) et Benjamin (Lead Data) d’environ 15 min

  2. Étude de cas / test technique avec Benjamin (60 min)

  3. Entretien final avec Vincent (CTO) ou Sébastien (CEO)

¿Quieres saber más?

¡Estas ofertas de trabajo te pueden interesar!

Estas empresas también contratan para el puesto de "{profesión}".

Ver todas las ofertas