Cette offre vous tente ?
Le département Etalab pilote et met en œuvre la stratégie de l’Etat en matière d’intelligence artificielle au service de l’action publique.
Albert API, développé par Etalab, est la plateforme d’inférence interministérielle permettant aux administrations de se doter facilement d’intelligence artificielle (IA) générative.
L’API Albert offre un accès vers de nombreux modèles (qu’ils soient à poids ouverts, ou de larges modèles propriétaires dans le cadre de partenariats avec des entreprises privés) sur une infrastructure souveraine et sécurisée, gérée également par la DINUM. Elle offre également des fonctionnalités avancées comme une solution de RAG (Retrieval Augmented Generation) as-a-service, la recherche internet, de l’OCR (Optical Character Recognition), etc. Albert API repose sur OpenGateLLM, une API gateway open source, développée par Etalab.
L’API Albert a vocation à être utilisée dans une grande variété de cas d’usage dans les produits numériques des ministères et administrations, et ainsi être une pièce centrale de l’infrastructure d’intelligence artificielle de l’Etat.
Vos mission :
Rattaché(e) au Responsable de produit Albert API au sein de la DINUM, vous rejoindrez une équipe pluridisciplinaire (développeurs, data scientists, DevOps) et serez au cœur de la mise en place et de l’évolution d’une infrastructure sécurisée, résiliente et performante pour le déploiement de services d’IA souverains à l’échelle interministérielle.
1. Architecture et gestion de l’infrastructure d’IA souveraine
Concevoir, déployer et maintenir l’infrastructure cloud souveraine d’Albert API (environnements GPU, clusters Kubernetes à l’échelle)
Assurer l’intégration avec les infrastructures cloud privées et interministérielles, ainsi que les environnements de production des ministères
Optimiser l’utilisation des ressources GPU et gérer les contraintes de coûts et de performance
Garantir la haute disponibilité, la scalabilité et la résilience de la plateforme face à la montée en charge
2. MLOps et déploiement de modèles d’IA
Mettre en œuvre et automatiser les pipelines de déploiement de modèles de langage (LLM) et d’autres modèles d’IA
Concevoir et opérer l’infrastructure de serving de modèles
Implémenter des stratégies de déploiement progressif, de rollback et de gestion des versions de modèles
3. DevSecOps et sécurisation de la plateforme
Implémenter et maintenir les pipelines CI/CD sécurisés en conformité avec les standards de l’État
Mettre en œuvre et maintenir les bonnes pratiques DevSecOps : gestion des secrets, contrôle d’accès, segmentation réseau, audits de sécurité
Piloter les démarches d’homologation et de qualification des systèmes (RGS, ANSSI)
Assurer la conformité RGPD et la traçabilité des traitements de données sensibles
Réaliser des audits de sécurité et des tests d’intrusion réguliers
4. Observabilité, monitoring et performance
Concevoir et déployer les outils de supervision de l’infrastructure et des services IA
Mettre en place et améliorer des tableaux de bord et des alertes pour le monitoring des performances
Assurer le suivi des métriques spécifiques aux modèles d’IA (qualité des réponses, coûts d’inférence)
Gérer les incidents de production, diagnostiquer les problèmes et mettre en œuvre les correctifs
5. Collaboration et amélioration continue
Accompagner les équipes de développement dans l’adoption des bonnes pratiques DevSecOps
Travailler en mode produit agile avec les équipes techniques et les parties prenantes interministérielles
Assurer une veille technologique sur les évolutions des technologies cloud, Kubernetes, MLOps et sécurité
Contribuer à la définition des standards techniques d’Albert API et à leur évolution
Participer à la montée en compétences de l’équipe sur les sujets DevSecOps
Savoirs
Solide expérience en DevOps/DevSecOps et gestion d’infrastructures de production (au moins 3 ans)
Bonne compréhension des principes de l’intelligence artificielle et des contraintes spécifiques au déploiement de modèles d’IA (GPU, latence, coûts)
Connaissance approfondie des architectures cloud, de Kubernetes et des technologies de conteneurisation
Familiarité avec les enjeux de sécurité, de souveraineté numérique et de conformité réglementaire dans le secteur public
Savoir-faire
Maîtrise de Kubernetes en environnement de production (gestion de clusters, networking, storage, scaling)
Expérience avec l’Infrastructure as Code et les pratiques GitOps
Maîtrise des pipelines CI/CD (GitLab CI, GitHub Actions, ArgoCD ou équivalent)
Compétences en scripting et automatisation (Python, Bash, Go)
Expérience avec les outils de monitoring et d’observabilité
Connaissance des bonnes pratiques de sécurité
Compétence en gestion d’infrastructures GPU et optimisation des ressources de calcul
Pratique des méthodologies agiles et du travail en équipe produit
Savoir-être
Autonomie et capacité à gérer des projets complexes de bout en bout
Sens du service public et engagement envers l’intérêt général
Esprit d’équipe et capacité à collaborer avec des profils variés (data scientists, développeurs, architectes)
Rigueur et sens de la responsabilité dans la gestion d’infrastructures critiques
Capacité à travailler sous pression et à gérer les incidents de production
Curiosité technique et appétence pour l’apprentissage continuPédagogie et capacité à transmettre les bonnes pratiques
Compétences valorisées (mais non obligatoires)
Expérience avec des solutions de serving de modèles d’IA
Connaissance des environnements cloud souverains français
Expérience en MLOps et gestion du cycle de vie de modèles ML en production
Expérience avec des outils d’orchestration de workflows (Airflow, Argo Workflows)
Contribution à des projets open source dans l’écosystème cloud-native
Expérience en environnement contraint et régulé (secteur public, santé, défense)
Pour postuler, veuillez obligatoirement envoyer votre candidature via : https://choisirleservicepublic.gouv.fr/offre-emploi/2025-2074325/?tracking=1&idOrigine=502
Rencontrez Ulrich, Chef du Data Lab
Rencontrez Clémence Lopez, Responsable de portefeuille
Ces entreprises recrutent aussi au poste de “Cloud computing et DevOps”.