Ingénieur IA Générative & Vertex AI

Rejoignez notre équipe en tant qu'Ingénieur IA Générative & Vertex AI. Vous serez responsable du développement et de l'architecture de pipelines RAG, de l'orchestration de chaînes multi-modèles, de la conception de stratégies de retrieval, de la création d'agents conversationnels autonomes, et bien plus encore. Vous devez avoir une expérience de 2 à 3 ans en développement IA/ML, idéalement avec des projets GenAI ou NLP.

Résumé suggéré par Welcome to the Jungle

CDI
Paris
Télétravail fréquent
Salaire : Non spécifié
Expérience : > 2 ans
Éducation : Bac +5 / Master
Missions clés

Développer des pipelines RAG complets, orchestrer des chaînes complexes multi-modèles et concevoir des stratégies de retrieval.

Containeriser et déployer des applications IA scalables sur Cloud Run, créer des APIs REST sécurisées et provisionner l’infrastructure via Terraform.

Monitorer la qualité des réponses en production, implémenter des systèmes d’évaluation automatisés et optimiser les coûts d’inférence.

Pyl.tech
Pyl.tech

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

Développement & Architecture RAG :

  • Développer des pipelines RAG complets : chunking adaptatif, génération d’embeddings (text-embedding-004), indexation vectorielle sur Vertex AI Vector Search

  • Orchestrer des chaînes complexes multi-modèles avec LangChain/LlamaIndex : routing, fallback, chaînes conditionnelles et mémoire conversationnelle

  • Concevoir et optimiser les stratégies de retrieval : hybrid search (dense + sparse), re-ranking, filtrage par métadonnées et scoring de pertinence

  • Designer des prompts optimisés avec techniques avancées (Few-shot, Chain-of-Thought, ReAct) et minimiser les hallucinations via le grounding

  • Développer des agents conversationnels autonomes capables d’appeler des outils externes (Function Calling, Extensions Vertex AI)

    Cloud Engineering & Déploiement :

  • Containeriser et déployer des applications IA scalables sur Cloud Run avec auto-scaling et gestion des cold starts

  • Créer des APIs REST sécurisées (FastAPI/Flask) avec authentification OAuth2, rate limiting et documentation OpenAPI

  • Provisionner l’infrastructure via Terraform : Vertex AI Endpoints, Cloud Run services, VPC peering et service accounts

  • Mettre en place les pipelines CI/CD dédiés aux modèles IA : tests automatisés, déploiement blue/green et rollback

    LLMOps & Monitoring :

  • Monitorer la qualité des réponses en production : métriques de grounding, latence P50/P95/P99, coûts tokens et taux d’hallucination

  • Implémenter des systèmes d’évaluation automatisés (RAGAS, DeepEval) pour mesurer la pertinence et la fidélité des réponses

  • Optimiser les coûts d’inférence : batching, caching des embeddings, choix du modèle adapté (Gemini Pro vs Flash vs Nano)

  • Mettre en place le logging structuré et les dashboards de suivi sur Cloud Monitoring

    R&D & Innovation :

  • Tester les nouveaux modèles Vertex AI (Gemini Ultra, Imagen, Codey) et évaluer leur applicabilité aux cas d’usage clients

  • Prototyper des architectures innovantes : multi-agents, GraphRAG, fine-tuning supervisé et RLHF

  • Contribuer à la veille technologique et au partage de connaissances en interne (tech talks, articles, notebooks de référence)


Profil recherché

  • Formation : Diplômé(e) d’une formation Bac+5 en Informatique, Data Science ou IA/ML.

  • Expérience : Vous disposez d’une expérience de 2 à 3 ans en développement IA/ML, idéalement avec des projets GenAI ou NLP.

Vos compétences

Techniques (“Hard skills”) :

  • Expert Python avec frameworks IA (LangChain, LlamaIndex)

  • Connaissance approfondie RAG, embeddings, vector databases et LLMs

  • Expérience avérée avec Vertex AI, Gemini API et services Google Cloud

  • Maîtrise de Docker et du déploiement Cloud Run

    Comportementales (“Soft skills”) :

  • Pragmatisme : capacité à passer rapidement du POC à la production

  • Pédagogie pour vulgariser les concepts IA auprès des équipes métiers

  • Curiosité et veille permanente sur les avancées GenAI


Déroulement des entretiens

  1. Échange RH (visio) – Un premier échange avec un membre de l’équipe de recrutement, consacré à la découverte de votre parcours, de vos aspirations professionnelles et de votre potentiel d’évolution au sein de Pyl.Tech.

  2. Entretien technique (visio) – Une rencontre approfondie avec le manager de l’équipe concernée, visant à évaluer l’adéquation entre votre expertise technique, vos qualités humaines et les exigences du poste.

  3. Entretien final avec un co-fondateur (visio ou présentiel) – Un échange privilégié avec l’un des fondateurs de Pyl.Tech, l’occasion de partager la vision de l’entreprise, de répondre à vos dernières interrogations et de confirmer votre projection à long terme.

    Ce que Pyl.Tech vous offre

  • De solides perspectives d’évolution : Un plan de carrière clair avec des formations ciblées et des certifications professionnelles (Google Cloud, Gemini, etc.) pour accélérer votre développement professionnel.

  • Un cadre de travail flexible et stimulant : Télétravail, culture d’entreprise basée sur la confiance, l’entraide et l’innovation.

  • Des projets à fort impact : Contribuez à des projets mobilisant les technologies les plus innovantes (IA Générative Gemini, Cloud souverain, Data, Digital Workplace) au service de clients grands comptes et d’ETI ambitieuses.

  • Un écosystème Google unique : En tant que pure player Google, bénéficiez d’un accès privilégié aux dernières technologies, aux formations partenaires et à une communauté d’experts passionnés où chaque expertise est valorisée.

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Data / Business Intelligence”.

Voir toutes les offres