Nous recherchons un(e) MLOps passionné(e) pour continuer de moderniser notre plateforme MLOps, au cœur de notre moteur de recherche souverain. Notre ambition :
Repenser une architecture modulaire et scalable pour l’orchestration de pipelines ML de bout en bout (chaîne de modèles successifs, feature store, vecteurs d’embeddings);
Mettre en place un versioning robuste pour le graphe documentaire, les données et les modèles, garantissant traçabilité et reproductibilité;
Déployer des workflows automatisés (CI/CD, tests, monitoring, rollback) pour accélérer les cycles d’expérimentation et de production;
Assurer la fiabilité et la performance de nos services de ranking, de recherche sémantique et de recommandation.
Cette plateforme jouera un rôle central pour nos équipes Data Science, IA et Produit, et contribuera directement à faire de Qwant une alternative européenne, performante et respectueuse de la vie privée. C’est une opportunité unique de bâtir un socle MLOps stratégique à fort impact.
Accompagner l’équipe Data Science dans la montée en maturité MLOps : structurer l’industrialisation des projets ML, diffuser les bonnes pratiques d’ingénierie, et faire évoluer les workflows en cohérence avec les principes du MLOps moderne (ex : Google Rules of ML).
Concevoir, automatiser et maintenir les pipelines ML de bout en bout : entraînement, évaluation, déploiement, supervision, et gestion du cycle de vie des modèles.
Améliorer la fiabilité, la performance et la sécurité des environnements ML, via des pratiques robustes : tests automatisés, CI/CD, monitoring, rollback.
Implémenter des briques clés de l’écosystème MLOps : feature store, registry de modèles, gestion des déploiements et des rollbacks.
Mettre en place et intégrer des solutions de versioning pour les modèles, les données, les configurations et le code, dans une logique de traçabilité complète.
Piloter la documentation, la gouvernance et les droits d’accès autour des modèles et des données, en lien avec les exigences de qualité, de conformité et de sécurité.
Vous avez 5 ans d’expérience dans l’industrialisation de solutions de Machine Learning, dont 2 ans dans la mise en place de pipelines MLOps à l’échelle, dans des environnements cloud ou on-prem complexes.
Vous avez automatisé des pipelines (training, validation, déploiement, maintenance)
Intégration et déploiement continus (CI/CD)
Tests unitaires et d’intégration sur modèles
Monitoring temps réel (drift, performance, logs)
Rollback et versioning des modèles et des données
Reproductibilité des entraînements et expériences
Vous êtes à l’aise avec les architectures distribuées, et savez anticiper les problématiques de scalabilité, performance et fiabilité liées à l’industrialisation du ML.
Vous avez déjà travaillé avec des technologies comme Kubernetes, Kubeflow, MLflow ou Triton (au moins deux d’entre elles).
Vous maitrisez Python et êtes au fait des bonnes pratiques de développement
Vous savez mettre en œuvre des mécanismes de tracking du data lineage et du model lineage pour garantir la traçabilité complète du cycle de vie des modèles et des jeux de données.
Le GitOps (ArgoCD) et les bonnes pratiques associées n’ont aucun secret pour vous.
Vous savez travailler avec des équipes pluridisciplinaires (data scientists, product owners, SRE) pour bien cerner les besoins métiers et exposer les résultats de façon exploitable, et êtes capable de vulgariser et documenter vos choix techniques.
Vous êtes force de proposition, structuré(e) et pédagogue. Vous aimez faire monter les équipes en compétence, mettre en place des bonnes pratiques, et accompagner les changements techniques ou organisationnels.
Vous privilégiez la rigueur, le pragmatisme et l’autonomie tout en accordant une grande importance à la qualité et à la robustesse des systèmes livrés.
Expérience avec des systèmes massivement distribués ou des environnements à forte volumétrie data.
Maîtrise avancée de la gouvernance ML (catalogues de modèles, audit, contrôles d’accès granulaires).
Expérience sur des pipelines de machine learning complexes (feature engineering, data versioning, entraînement sur lakehouse).
Intérêt pour les moteurs de recherche, grands graphes de données ou le NLP avancé.
Capacité à communiquer efficacement, à vulgariser et formaliser les choix techniques et les documenter au sein d’équipes cross-disciplinaires.
Nous valorisons les routines structurées, la qualité de vie (heures fixes pour les réunions importantes, flexibilité pour le reste), et la liberté d’explorer et de partager sur les meilleurs outils du moment, en cohérence avec les standards et la documentation (ArchLinux, outils open source, documentation partagée dans l’équipe).
Travailler sur des sujets complexes à fort impact sociétal.
Une équipe technique exigeante, bienveillante et multidisciplinaire.
Évoluer dans un environnement MLOps complet et en production: orchestration de workflows, gestion d’embeddings, gouvernance de graphes, CI/CD.
Participer à l’internationalisation de la plateforme : ajout de nouvelles langues et partenariats stratégiques (Ecosia, etc.).
Monter en compétences grâce à la diffusion des bonnes pratiques.
Agir concrètement sur la qualité, la performance et la fiabilité d’un service utilisé par des millions d’utilisateurs chaque jour.
Rejoignez-nous pour construire la prochaine génération de plateformes ML robustes et transparentes !
Nous te proposerons un premier appel de 45 minutes avec un membre de l’équipe RH pour faire connaissance et te présenter le poste.
Si cette première rencontre est concluante, nous organiserons :
Entretien découverte (1h) — Avec un Engineering Manager et un membre de l’équipe.
Test technique (2h) — Coding test à faire chez vous.
Restitution (1h30) — Analyse du test et discussion technique approfondie.
Entretien final (30 min) — Avec notre CTO.