Senior AI Engineer

Résumé du poste
CDI
Paris
Télétravail fréquent
Salaire : Non spécifié
Début : 01 février 2026
Expérience : > 3 ans
Compétences & expertises
Travail d'équipe
Amélioration continue
Efficacité opérationnelle
Collaboration et travail d'équipe
Mécanique
+11

Naboo
Naboo

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

🎯 Ta mission

Industrialiser l’IA chez Naboo pour automatiser, accélérer et fiabiliser nos processus sur toute la chaîne de valeur, du premier contact client jusqu’au delivery du séminaire (et l’amélioration continue post-event).

Tu construis des agents IA, des workflows et des produits data qui :

  • réduisent drastiquement le temps passé sur les tâches répétitives et à faible valeur ajoutée,

  • améliorent la qualité d’exécution (moins d’erreurs, meilleure cohérence, meilleur contrôle),

  • augmentent la vitesse de réponse et la satisfaction client,

  • rendent nos équipes plus scalables, sans ajouter de complexité opérationnelle.

Et surtout : tu livres des solutions observables et pilotées par la donnée — monitoring, tracking d’usage, qualité, latence, coûts, et impact business (temps gagné, baisse d’erreurs, adoption).

🔧 Ce que tu feras concrètement

1) Concevoir et développer des agents et outils IA “production-ready”

  • Construire des agents IA et des workflows multi-étapes avec LangGraph (orchestration, state management, human-in-the-loop, retries), jusqu’en production.

  • Développer des assistants orientés métier (Sales/Ops/CS) : extraction/synthèse, rédaction assistée, aide à la décision, automatisation de workflows.

  • Mettre en place les bons patterns : tool-calling, gestion de contexte, guardrails, sécurité/PII, maîtrise des coûts.

2) Développer la data foundation qui rend l’IA utile

  • Développer des pipelines de données et des intégrations entre nos systèmes internes (BigQuery, MongoDB, APIs…).

  • Fiabiliser la donnée : qualité, traçabilité, monitoring, modèles et métriques partagés.

3) Livrer en cycles Shape Up (orientés impact)

  • Participer au shaping (cadrage, risques, découpage, définition du “done”).

  • Travailler en étroite collaboration avec le PM et les équipes internes pour garantir la valeur ajoutée et l’adoption.

4) Mesurer et itérer (adoption & ROI)

  • Définir et suivre des indicateurs : temps gagné, taux d’adoption, baisse d’erreurs, satisfaction interne.

  • Construire une boucle de feedback continue et itérer rapidement.

5) Monitoring, tracking & performance (rigueur production)

  • Mettre en place l’observabilité des pipelines et des agents (logs, métriques, alerting, traces).

  • Suivre des KPIs de performance : latence, taux d’erreurs, taux de fallback, stabilité, coûts par workflow.

  • Mettre en place une démarche d’évaluation (qualité LLM, hallucinations, précision d’extraction, conformité) + dashboards d’usage.

  • Optimiser en continu : caching, batching, choix modèles, tuning prompts, amélioration des données.


🚀 Pourquoi ce rôle est une vraie opportunité

  • Impact direct : chaque projet livré a un effet mesurable sur la productivité.

  • Ownership : tu influences l’architecture, les choix techniques, la standardisation des agents et la roadmap IA interne.

  • Cycle complet : shaping → build → déploiement → mesure → itération.

  • Environnement structuré : roadmap claire, cycles courts, vrais utilisateurs.

  • Équipe ambitieuse : forte proximité produit, exécution rapide, culture du concret.


Profil recherché

🧠 Expérience

  • Tu as déjà livré des projets data/IA en production (agents, automatisations, outils internes, data products…).

  • Tu es à l’aise avec un contexte “ops” : contraintes réelles, qualité, adoption, ROI.

🔧 Compétences techniques

  • Excellente maîtrise de Python (Pandas, FastAPI, intégrations, APIs, tests).

  • Solides bases en SQL et en manipulation/modélisation de données.

  • Expérience LLMs/NLP (OpenAI API, LangChain/LangGraph, Hugging Face, RAG…).

  • Confort avec un environnement cloud data (BigQuery, GCP, MongoDB).

  • Culture production & fiabilité : monitoring, métriques, alerting, post-mortems, amélioration continue.

  • Bonus : vector DB (FAISS/Chroma), évaluation LLM, sécurité & privacy, optimisation coûts/latence.

💡 Qualités personnelles

  • Autonome, rigoureux(se), orienté(e) impact.

  • Sens du produit : tu comprends les besoins métiers et cherches la solution la plus efficace.

  • Aime livrer vite, bien, et itérer avec des utilisateurs.

🧰 Stack technique

  • Langages : Python (Pandas, FastAPI, LangChain, LangGraph), SQL

  • Infrastructure : BigQuery, MongoDB, GCP

  • IA : OpenAI API, Hugging Face, FAISS / Chroma

  • Data Viz : Looker Studio

  • Méthodo : Shape Up adaptée (cycles 6–8 semaines, shaping collaboratif)

  • Observabilité : monitoring & alerting (logs/métriques), dashboards d’adoption & performance

Découvre en plus sur cettevidéo !


Déroulement des entretiens

  • Étape 1: Entretien visio (45 min) – avec l’Engineering Manager Data & IA

  • Étape 2: Rencontre avec le CTO – discussion technique & vision produit

  • Étape 3: Speed meeting – échanges rapides avec plusieurs membres de Naboo

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres