Nous recherchons un Data Engineer senior pour optimiser, fiabiliser et industrialiser les pipelines de données qui alimentent nos produits IA. Ton rôle est clé : tu garantis la qualité, la disponibilité et la performance des données utilisées au quotidien par les équipes IA, Produit et DevOps.
Concevoir, développer et maintenir des pipelines de données robustes, automatisés et scalables.
Assurer la qualité, la sécurité et la fiabilité des données sur tout leur cycle de vie.
Définir et maintenir une infrastructure as code pour les services liés à la donnée.
Construire et maintenir des dashboards, outils de monitoring et rapports destinés aux équipes internes.
Collaborer étroitement avec les équipes Data Science, DevOps et Produit pour garantir la cohérence et la valorisation des données.
Surveiller et optimiser les performances via des outils d’observabilité (Datadog, Grafana, Prometheus).
Bac+5 ou équivalent en informatique, data engineering ou IA.
5+ ans d’expérience en Data Engineering, idéalement en environnement cloud/IA.
Excellente maîtrise de Python et des bonnes pratiques de développement (tests, versioning, packaging).
Très bonne connaissance des bases SQL et NoSQL (PostgreSQL, DynamoDB).
Expérience solide sur l’automatisation des workflows (Airflow, GitHub Actions, GitLab CI/CD).
Maîtrise des concepts MLOps, intégration des données dans les workflows ML, monitoring et déploiement.
Compétences cloud sur AWS ou GCP (S3, Lambda, RDS, Step Functions).
Connaissance de Docker et des environnements de conteneurisation.
Rigueur technique et souci constant de qualité.
Autonomie forte et capacité à prendre en charge un périmètre large.
Communication claire, structurée, orientée collaboration.
Capacité à travailler avec des équipes pluridisciplinaires.
Esprit analytique et sens du détail.
Expérience démontrée sur des pipelines critiques en production.
Pratique avancée de l’observabilité data (logs, métriques, alerting).
Contributions open-source dans l’écosystème data/ML.
Proactivité dans l’amélioration continue des workflows et environnements data.
Sensibilité à l’impact environnemental ou sociétal des technologies.
Langages : Python
Bases de données : PostgreSQL, DynamoDB
Pipelines : GitHub Actions
Cloud : AWS (S3, Lambda, RDS, Step Functions), GCP
Conteneurisation : Docker
Observabilité : Datadog, Grafana, Prometheus
MLOps : MLflow, SageMaker
Rencontrez Alexandre, Co-fondateur & CTPO
Rencontrez Vincent, Computer Vision Engineer
Estas empresas también contratan para el puesto de "{profesión}".