En stage à partir de Septembre, tu auras l’opportunité de contribuer à des projets innovants mêlant intelligence artificielle et cybersécurité, dans un environnement à la fois stimulant, bienveillant et exigeant.
En collaboration étroite avec nos équipes de développement full-stack et d’AI engineers, tu contribueras à garantir le déploiement, la performance, la scalabilité et la fiabilité de notre plateforme SaaS.
Au-delà des pratiques DevOps classiques, tu seras au cœur de l’optimisation d’infrastructures destinées à l’hébergement et à l’exécution de modèles de langage (LLM) — un challenge technique passionnant, qui repose sur des environnements cloud haute performance et des pratiques MLOps avancées.
👾 Ce que tu feras au quotidien :
Concevoir et améliorer l’architecture cloud de la plateforme en assurant sa haute disponibilité et son évolutivité.
Gérer des infrastructures dédiées au fine-tuning et à l’inférence de modèles IA (LLM), avec une attention particulière sur le stockage des artefacts, la reproductibilité et les performances.
Mettre en place et maintenir des pipelines d’intégration et de déploiement continus pour automatiser le cycle de vie des services et des modèles IA..
Optimiser l’utilisation des ressources GPU et CPU pour maximiser la performance des modèles IA tout en réduisant les coûts.
Mettre en œuvre des solutions de monitoring avancées (Prometheus, Grafana, Datadog, etc.) ainsi que des outils de suivi d’expériences et de traçabilité des modèles (MLflow, W&B, Neptune).
Appliquer les bonnes pratiques DevOps et MLOps pour garantir robustesse, sécurité et scalabilité de notre infrastructure IA.
Gérer et orchestrer des environnements conteneurisés avec Docker/Podman et Kubernetes, notamment pour des workloads IA distribués.
Automatiser le provisioning, la configuration et le déploiement via Infrastructure as Code (Terraform, Ansible…).
Participer à la gestion des incidents, à l’optimisation continue de la plateforme et à l’amélioration des workflows d’ingénierie.
🔍 On te veux si tu es :
Étudiant(e) en dernière année d’école d’ingénieur ou Master en informatique ou domaine connexe.
Proactif(ve), curieux(se) et motivé(e) par l’apprentissage et la résolution de défis complexes.
Autonome, créatif, innovant et capable de trouver des solutions originales à des problèmes complexes
et si tu as…
Une bonne connaissance des environnements cloud (AWS, GCP ou Azure) et cloud souverains (OVH, S3NS…) et des infrastructures spécialisées pour l’IA (Vertex AI, SageMaker, HugginFace etc.).
Des expériences avec les technologies de conteneurisation (Docker), d’orchestration (Kubernetes) et plus largement d’approches Serverless ou basées sur des workloads ML distribués (Kubeflow, Ray, Dask etc.).
Une compréhension des principes DevOps et MLOps, ainsi que des outils d’intégration continue, de delivery et de test (GitHub Actions, GitLab CI/CD, ArgoCD, etc.).
Une familiarité avec les outils d’infrastructure as code (Terraform, Ansible).
Des compétences en scripting (Python, Bash, Go, etc.) et idéalement une compréhension de la gestion de pipelines ML (Airflow, Prefect, Dagster).
Un intérêt marqué pour l’intelligence artificielle et la gestion d’infrastructures à grande échelle.
🎉 Ce que nous offrons :
Tu participeras à une aventure entrepreneuriale ambitieuse, au sein d’une équipe d’experts en cybersécurité et IA.
Tu évolueras dans un environnement de travail flexible, exigeant et bienveillant, où ton opinion comptera réellement.
Tu pourras travailler sur des sujets au carrefour de l’IA et de la cybersécurité, deux domaines qui transforment la tech actuelle.
À l’issue du stage, une embauche pourra être envisagée si nous sommes mutuellement convaincus du fit.
Les entretiens se dérouleront en Visio en 2 étapes. Le premier permettra de mieux cerner tes objectifs et motivations, le second sera plus technique et le dernier te permettra de poser toutes les dernières questions que tu pourrais avoir, et pour nous de prendre une décision en prenant l’ensemble des critères en compte (que nous partagerons avec toi en transparence).