Rejoignez notre équipe en tant qu'Ingénieur IA Générative & Vertex AI. Vous serez responsable du développement et de l'architecture de pipelines RAG, de l'orchestration de chaînes multi-modèles, de la conception de stratégies de retrieval, de la création d'agents conversationnels autonomes, et bien plus encore. Vous devez avoir une expérience de 2 à 3 ans en développement IA/ML, idéalement avec des projets GenAI ou NLP.
jobs.show.blocks.metaData.summary.generated
Développer des pipelines RAG complets, orchestrer des chaînes complexes multi-modèles et concevoir des stratégies de retrieval.
Containeriser et déployer des applications IA scalables sur Cloud Run, créer des APIs REST sécurisées et provisionner l’infrastructure via Terraform.
Monitorer la qualité des réponses en production, implémenter des systèmes d’évaluation automatisés et optimiser les coûts d’inférence.
Développement & Architecture RAG :
Développer des pipelines RAG complets : chunking adaptatif, génération d’embeddings (text-embedding-004), indexation vectorielle sur Vertex AI Vector Search
Orchestrer des chaînes complexes multi-modèles avec LangChain/LlamaIndex : routing, fallback, chaînes conditionnelles et mémoire conversationnelle
Concevoir et optimiser les stratégies de retrieval : hybrid search (dense + sparse), re-ranking, filtrage par métadonnées et scoring de pertinence
Designer des prompts optimisés avec techniques avancées (Few-shot, Chain-of-Thought, ReAct) et minimiser les hallucinations via le grounding
Développer des agents conversationnels autonomes capables d’appeler des outils externes (Function Calling, Extensions Vertex AI)
Cloud Engineering & Déploiement :
Containeriser et déployer des applications IA scalables sur Cloud Run avec auto-scaling et gestion des cold starts
Créer des APIs REST sécurisées (FastAPI/Flask) avec authentification OAuth2, rate limiting et documentation OpenAPI
Provisionner l’infrastructure via Terraform : Vertex AI Endpoints, Cloud Run services, VPC peering et service accounts
Mettre en place les pipelines CI/CD dédiés aux modèles IA : tests automatisés, déploiement blue/green et rollback
LLMOps & Monitoring :
Monitorer la qualité des réponses en production : métriques de grounding, latence P50/P95/P99, coûts tokens et taux d’hallucination
Implémenter des systèmes d’évaluation automatisés (RAGAS, DeepEval) pour mesurer la pertinence et la fidélité des réponses
Optimiser les coûts d’inférence : batching, caching des embeddings, choix du modèle adapté (Gemini Pro vs Flash vs Nano)
Mettre en place le logging structuré et les dashboards de suivi sur Cloud Monitoring
R&D & Innovation :
Tester les nouveaux modèles Vertex AI (Gemini Ultra, Imagen, Codey) et évaluer leur applicabilité aux cas d’usage clients
Prototyper des architectures innovantes : multi-agents, GraphRAG, fine-tuning supervisé et RLHF
Contribuer à la veille technologique et au partage de connaissances en interne (tech talks, articles, notebooks de référence)
Formation : Diplômé(e) d’une formation Bac+5 en Informatique, Data Science ou IA/ML.
Expérience : Vous disposez d’une expérience de 2 à 3 ans en développement IA/ML, idéalement avec des projets GenAI ou NLP.
Techniques (“Hard skills”) :
Expert Python avec frameworks IA (LangChain, LlamaIndex)
Connaissance approfondie RAG, embeddings, vector databases et LLMs
Expérience avérée avec Vertex AI, Gemini API et services Google Cloud
Maîtrise de Docker et du déploiement Cloud Run
Comportementales (“Soft skills”) :
Pragmatisme : capacité à passer rapidement du POC à la production
Pédagogie pour vulgariser les concepts IA auprès des équipes métiers
Curiosité et veille permanente sur les avancées GenAI
Échange RH (visio) – Un premier échange avec un membre de l’équipe de recrutement, consacré à la découverte de votre parcours, de vos aspirations professionnelles et de votre potentiel d’évolution au sein de Pyl.Tech.
Entretien technique (visio) – Une rencontre approfondie avec le manager de l’équipe concernée, visant à évaluer l’adéquation entre votre expertise technique, vos qualités humaines et les exigences du poste.
Entretien final avec un co-fondateur (visio ou présentiel) – Un échange privilégié avec l’un des fondateurs de Pyl.Tech, l’occasion de partager la vision de l’entreprise, de répondre à vos dernières interrogations et de confirmer votre projection à long terme.
De solides perspectives d’évolution : Un plan de carrière clair avec des formations ciblées et des certifications professionnelles (Google Cloud, Gemini, etc.) pour accélérer votre développement professionnel.
Un cadre de travail flexible et stimulant : Télétravail, culture d’entreprise basée sur la confiance, l’entraide et l’innovation.
Des projets à fort impact : Contribuez à des projets mobilisant les technologies les plus innovantes (IA Générative Gemini, Cloud souverain, Data, Digital Workplace) au service de clients grands comptes et d’ETI ambitieuses.
Un écosystème Google unique : En tant que pure player Google, bénéficiez d’un accès privilégié aux dernières technologies, aux formations partenaires et à une communauté d’experts passionnés où chaque expertise est valorisée.
Rencontrez Oren, Fondateur & CTO
Rencontrez Eva, Manager de Projets
Tieto spoločnosti tiež prijímajú pracovníkov na pozíciu "{profesia}".