Cette offre n’est plus disponible.

Data Engineer - CDI - Paris

Résumé du poste
CDI
Paris
Télétravail fréquent
Salaire : 50K à 60K €
Expérience : > 4 ans
Éducation : Bac +5 / Master
Compétences & expertises
Confidentialité des données
Travail d'équipe
Gestion de la documentation
Règlement Général de Protection des Données (RGPD)
Collaboration et travail d'équipe
+10

Yomoni
Yomoni

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

💙 Rejoins une fintech qui construit la Data de demain

🚀 Pourquoi ce poste ?
Chez Yomoni, on veut rendre l’épargne simple, transparente et accessible à tous.
Notre mission : permettre à chaque épargnant de faire grandir son argent avec confiance.

Pour y parvenir, la donnée est au cœur de tout :
elle éclaire nos décisions stratégiques, alimente nos produits et soutient nos projets IA.

Nous venons de poser les bases d’une modern data stack (Snowflake, DBT, Fivetran, Hightouch) et cherchons aujourd’hui un(e) Data Engineer pour renforcer son architecture, fiabiliser ses pipelines et construire une infrastructure solide et scalable.

👉 Si tu veux construire plutôt que maintenir, et laisser ton empreinte dans une fintech en pleine croissance, ce poste est fait pour toi.

Tu rejoindras une équipe Data en expansion (Head of Data + Data Analyst confirmé),
au cœur des enjeux produit, métier et technologiques.
Ton rôle : garantir la robustesse, la scalabilité et la qualité de l’infrastructure data.

🎯 Tes missions :

1. Construire et maintenir des pipelines d’ingestion

  • Développer des pipelines d’ingestion hors connecteurs (APIs internes, fichiers SFTP, bases propriétaires, etc.).

  • Superviser et maintenir les flux existants (Fivetran et futurs outils).

  • Gérer l’orchestration (Dbt, Fivetran), l’historisation et la qualité des données.

  • Mettre en place du monitoring technique et des tests d’intégrité automatisés.

2. Industrialiser l’usinde de transformation (Dbt)

  • Mettre en place et maintenir un CI/CD pour Dbt (Pull Request, tests automatiques, déploiement).

  • Intégrer des tests de cohérence et de fraîcheur.

  • Surveiller les jobs (logs, scheduler, notifications).

  • Collaborer avec le Head of Data et le Data Analyst pour fiabiliser les modèles métiers.

3. Distribuer la donnée vers les outils métiers

  • Garantir que la donnée transformée arrive là où elle est utile : CRM, support, marketing, finance…

  • Étendre les cas d’usage non couverts par Hightouch (API custom, exports automatisés).

  • S’assurer de la fraîcheur, de la cohérence et de la traçabilité des données distribuées.

4. Monitoring, performance & data reliability

  • Mettre en place un monitoring global de la stack : fraîcheur, qualité, volumétrie, coûts Snowflake.

  • Définir et suivre des SLA de disponibilité et de mise à jour.

  • Automatiser les alertes et détections d’anomalies (Elementary, DataDog ou équivalents).

5. Sécurité, gouvernance et documentation

  • Gérer les accès Snowflake via un modèle RBAC clair (séparation dev/prod).

  • Participer à la gouvernance data et à la conformité RGPD.

  • Documenter les pipelines techniques et les process dans Confluence.

  • Contribuer à la traçabilité et à la classification des données sensibles.


⚙️ Notre modern stack Data

  • Ingestion : Fivetran, pipelines Python custom

  • Transformation : Dbt Cloud

  • Warehouse : Snowflake

  • Activation / Reverse ETL : Hightouch

  • Documentation : Confluence, Dbt Docs


Profil recherché

Tu es passionné·e par la data et aimes construire des systèmes fiables et scalables.

  • 3 à 5 ans d’expérience en Data Engineering (ou équivalent)

  • Solides bases en SQL et Python

  • Bonne connaissance des architectures modernes ELT

  • Expérience sur au moins un entrepôt cloud (Snowflake, BigQuery, Redshift)

  • Maîtrise d’un outil de transformation (Dbt) et d’un orchestrateur (Airflow ou Dagster)

  • Familiarité avec CI/CD, tests automatisés et infrastructure as code

  • Sensibilité à la sécurité, la qualité et la collaboration inter-équipe

Bonus :

  • Connaissance approfondie de Snowflake (optimisation, RBAC, coûts)

  • Expérience avec Terraform, Dagster ou Airflow

  • Notions de data quality frameworks (Elementary, Great Expectations)

  • Appétence pour les sujets IA / ML

✨ Ce que l’on t’offre

  • Une stack moderne avec de vrais choix techniques à faire

  • Un rôle clé dans la montée en maturité Data de Yomoni

  • Des collaborations directes avec le CTO et le Head of Data

  • Un environnement stimulant, exigeant et bienveillant

  • 2 séminaires par an pour renforcer les liens ✈

  • Un plan d’épargne entreprise maison et motivant

  • Une mutuelle Alan Blue (prise en charge à 70 %)

  • Tickets Restaurant (8 €, prise en charge à 60 %)

  • Des RTT pour souffler

  • 20 € remboursés sur ton forfait internet

  • Une salle de sport accessible

  • Et surtout : une équipe soudée autour d’un projet ambitieux 💙


Déroulement des entretiens

  1. Entretien découverte avec Natacha (HR & Talent Manager) et Benjamin (Head of Data) d’environ 15 min

  2. Étude de cas / test technique avec Benjamin (60 min de préparation et 60 min de restitution)

  3. Entretien final avec Vincent (CTO) ou Sébastien (CEO)

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres