Upply construit une plateforme d’intelligence de marché pour le transport & la logistique en Europe. Tu vas rejoindre l’équipe RED (Research, Engineering & Development) pour renforcer l’équipe Data Science, tant par ton expertise technique que par ta compréhension métier.
🎯 Tes principales responsabilités
Concevoir, maintenir et améliorer les modèles de prédiction d’Upply.
Créer de nouveaux modèles (ML/DL/économétrie/genAI) pour répondre aux besoins produits et clients.
Assurer l’amélioration continue du code (refacto, tests, performance) et la mise à jour régulière des modèles.
Réaliser une veille technologique continue sur les approches data & IA pertinentes pour Upply, et proposer des évolutions.
Identifier les besoins en données (nouvelles sources, enrichissements, contraintes d’hébergement) et les prioriser.
Gérer les outliers et effectuer les vérifications métier nécessaires pour fiabiliser les modèles.
Co-construire avec les Data Engineers les pipelines nécessaires pour assurer la mise en production des modèles.
Réaliser des analyses ad-hoc et KPIs à la demande pour éclairer les décisions Produit, Business ou clients.
Être un point de contact privilégié pour les questions techniques sur les modèles (interne & externe).
Participer aux échanges avec les clients “custom” (automations, dashboards, projets spécifiques) : cadrage, suivi, restitution.
Travailler en proximité avec les équipes SOS (commercial), ENG, Produit pour aligner besoins, contraintes et roadmaps.
Contribuer à la création et maintenance de dashboards pour les clients internes et externes.
Définir, en lien avec les Data Engineers, les besoins d’industrialisation des modèles (pipelines, jobs, déploiements).
Mettre en place de monitoring (qualité modèle, dérive, latence, coûts) et alerter en cas de dérive.
Maintenir certains packages internes (ex. pypply, libs de stats/modèles) et les faire évoluer.
Prioriser et dispatcher les besoins modèles (nouvelles sources, hébergement, infra) vers les bons interlocuteurs (Data Engineers, Cloud, Produit).
Animer ou co-animer des sessions de discovery & innovation data (nouvelles idées, POCs, tests de modèles).
Participer à la Newsletter Data, aux démos et au partage de la donnée (interne/clients).
Produire une documentation claire des modèles (model cards, limites, hypothèses, KPIs de suivi) accessible aux équipes Produit & Dev.
Contribuer à l’acculturation data en expliquant les modèles et leurs impacts aux parties prenantes non techniques.
Rôle de référent·e technique sur les sujets de modélisation dans le pôle Data.
Accompagnement des profils plus juniors (ex. Data Scientist Junior / Modélisation) : pair-programming, revues de notebooks, cadrage de POCs.
Capacité à vulgariser les choix de modèles, leurs hypothèses et leurs limites auprès des équipes non techniques.
Compétences clés : excellente maîtrise de Python, SQL, Pandas, PySpark ; forte expertise en modélisation (ML classique + statistiques + DL).
Notions cloud : très bonne compréhension de Databricks (jobs/ou workflows, notebooks), stockage compute, orchestration ; maîtrise de MLflow ; aisance avec Azure (Data Lake, Blob Storage, Event Hub, SQL Database).
Bonnes pratiques : workflow Git/GitHub, CI simple, code lisible et testé ; documentation claire (Markdown, Notion/Confluence).
État d’esprit : autonome, rigoureux·se, curieux·se, orienté résultats, esprit analytique ; capable de mentorat et de collaboration étroite avec Data Engineers et Product.
Atouts (nice to have) : Delta Lake, Unity Catalog, feature store, monitoring/alerting des modèles (performance, dérive, latence), mise en prod batch & near real-time, notions FinOps.
Architecture & patterns : pipelines de features, pipelines de scoring, A/B tests, data quality orientée modèles, sécurité/GDPR.
Formation : Bac+5 / MSc ou doctorat en data science, statistiques, mathématiques appliquées, informatique ou équivalent.
Langues : anglais & français professionnels parfaits
En deux temps:
Entretien avec Data Scientist & Data Engineer
Entretien avec RH et Florent, CTO & CDO
Rencontrez Marie, Data Scientist
Rencontrez Florian, Product Manager