Intégré(e) à la Squad DataOps et managé(e) par le Lead Data & Infra, tu es responsable de la fiabilité et de la performance des pipelines de données en production chez nos clients.
Ton rôle est clé dans la montée en maturité du Run DataOps : tu assures la stabilité des connecteurs en production, renforces la robustesse des traitements existants et contribues à mettre en place progressivement les standards d’exploitation des flux data en lien avec les équipes Build, Produit et CSM.
Tu interviens avec trois objectifs clés :
sécuriser durablement les flux de données en production
réduire significativement les incidents et les temps de résolution
contribuer à structurer le Run DataOps et la transition entre Build et Run
🔄 Exploitation & fiabilité des pipelines
Assurer l’exploitation quotidienne des connecteurs et pipelines en production (+100 exécutions quotidiennes).
Investiguer et résoudre les incidents complexes sur les flux existants.
Optimiser la performance et la fiabilité des traitements.
Renforcer la supervision, l’alerting et les contrôles qualité automatisés.
Participer à la mise à jour des runbooks et procédures opérationnelles du Run DataOps.
🔁 Structuration du Run & amélioration continue
Contribuer à définir et mettre en place les standards du Run DataOps : exploitabilité des pipelines, handover Build → Run outillé, runbooks opérationnels et critères de mise en production data.
Automatiser les opérations du Run et participer à la réduction de la dette technique sur les connecteurs en production.
Faire remonter les signaux faibles observés en production vers les équipes Build et Produit afin d’améliorer durablement la plateforme.
Apporter un appui technique ponctuel aux CSM et au Produit, et intervenir si nécessaire lors d’échanges techniques avec des équipes IT clientes.
🔧 Hard skills
4 à 6 ans d’expérience en Data Engineering, idéalement avec une forte exposition à des environnements de production.
Très bonne maîtrise de Python pour le développement de pipelines, scripts d’exploitation et debugging.
Solide pratique du SQL pour l’investigation et l’analyse de données.
Expérience avec un orchestrateur de workflows (Airflow ou équivalent).
Habitué(e) à intervenir sur des systèmes data en production chez des clients finaux, y compris en environnements on-premise.
Connaissances solides des environnements Linux et des outils de conteneurisation (Docker).
À l’aise avec l’analyse de logs, métriques et alertes pour diagnostiquer des incidents.
➕ Bonus appréciés
Exposition à des environnements réglementés (santé, finance, secteur public…).
Connaissance d’OpenSearch / Elasticsearch.
Familiarité avec des standards en données médicales (OMOP, FHIR ou équivalent).
🧠 Soft skills
Très orienté(e) fiabilité opérationnelle et satisfaction client.
Structuré(e), rigoureux(se), capable d’investiguer en profondeur.
À l’aise pour travailler en transverse avec Produit, CSM, Infra et équipes Data.
Capable de prioriser efficacement dans un contexte de production active.
Proactif(ve), avec une vraie culture d’amélioration continue.
À l’aise dans des environnements en construction, avec envie de faire progresser les pratiques.
🛠️ Stack & environnement
Tu évolueras dans un environnement technique comprenant notamment :
Python / pandas
Airflow
PostgreSQL / SQL
OpenSearch
Docker / Docker Compose
Premier échange pour faire connaissance, comprendre ton parcours et tes attentes.
Entretien technique avec le Lead Data et un Data Engineer, incluant un test technique à réaliser chez toi.
Entretien de fit avec la CTO et la Product Manager.
Entretien final avec le CEO.
Rencontrez Nicolas, Co-fondateur de codoc et Responsable Data Science à l'Institut Imagine
Rencontrez Margaux, Lead data
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.