🦊 Data Scientist - Senior

Job summary
Permanent contract
Levallois-Perret
A few days at home
Salary: < €70K
Experience: > 5 years
Education: Master's Degree
Skills & expertise
Continuous improvement
Presentation skills
Communication skills
Cloud infrastructure management
GitHub
+10

Upply
Upply

Interested in this job?

Questions and answers about the job

The position

Job description

Upply construit une plateforme d’intelligence de marché pour le transport & la logistique en Europe. Tu vas rejoindre l’équipe RED (Research, Engineering & Development) pour renforcer l’équipe Data Science, tant par ton expertise technique que par ta compréhension métier.

🎯 Tes principales responsabilités

🧠 1. Gestion & création des modèles

  • Concevoir, maintenir et améliorer les modèles de prédiction d’Upply.

  • Créer de nouveaux modèles (ML/DL/économétrie/genAI) pour répondre aux besoins produits et clients.

  • Assurer l’amélioration continue du code (refacto, tests, performance) et la mise à jour régulière des modèles.

  • Réaliser une veille technologique continue sur les approches data & IA pertinentes pour Upply, et proposer des évolutions.

📊 2. Données, qualité & analytics

  • Identifier les besoins en données (nouvelles sources, enrichissements, contraintes d’hébergement) et les prioriser.

  • Gérer les outliers et effectuer les vérifications métier nécessaires pour fiabiliser les modèles.

  • Co-construire avec les Data Engineers les pipelines nécessaires pour assurer la mise en production des modèles.

  • Réaliser des analyses ad-hoc et KPIs à la demande pour éclairer les décisions Produit, Business ou clients.

🤝 3. Interaction avec les clients & équipes internes

  • Être un point de contact privilégié pour les questions techniques sur les modèles (interne & externe).

  • Participer aux échanges avec les clients “custom” (automations, dashboards, projets spécifiques) : cadrage, suivi, restitution.

  • Travailler en proximité avec les équipes SOS (commercial), ENG, Produit pour aligner besoins, contraintes et roadmaps.

  • Contribuer à la création et maintenance de dashboards pour les clients internes et externes.

⚙️ 4. Industrialisation & MLOps léger

  • Définir, en lien avec les Data Engineers, les besoins d’industrialisation des modèles (pipelines, jobs, déploiements).

  • Mettre en place de monitoring (qualité modèle, dérive, latence, coûts) et alerter en cas de dérive.

  • Maintenir certains packages internes (ex. pypply, libs de stats/modèles) et les faire évoluer.

  • Prioriser et dispatcher les besoins modèles (nouvelles sources, hébergement, infra) vers les bons interlocuteurs (Data Engineers, Cloud, Produit).

📣 5. Partage, communication & innovation

  • Animer ou co-animer des sessions de discovery & innovation data (nouvelles idées, POCs, tests de modèles).

  • Participer à la Newsletter Data, aux démos et au partage de la donnée (interne/clients).

  • Produire une documentation claire des modèles (model cards, limites, hypothèses, KPIs de suivi) accessible aux équipes Produit & Dev.

  • Contribuer à l’acculturation data en expliquant les modèles et leurs impacts aux parties prenantes non techniques.

🧑‍🏫 6. Encadrement & posture

  • Rôle de référent·e technique sur les sujets de modélisation dans le pôle Data.

  • Accompagnement des profils plus juniors (ex. Data Scientist Junior / Modélisation) : pair-programming, revues de notebooks, cadrage de POCs.

  • Capacité à vulgariser les choix de modèles, leurs hypothèses et leurs limites auprès des équipes non techniques.


Preferred experience

  • Compétences clés : excellente maîtrise de Python, SQL, Pandas, PySpark ; forte expertise en modélisation (ML classique + statistiques + DL).

  • Notions cloud : très bonne compréhension de Databricks (jobs/ou workflows, notebooks), stockage compute, orchestration ; maîtrise de MLflow ; aisance avec Azure (Data Lake, Blob Storage, Event Hub, SQL Database).

  • Bonnes pratiques : workflow Git/GitHub, CI simple, code lisible et testé ; documentation claire (Markdown, Notion/Confluence).

  • État d’esprit : autonome, rigoureux·se, curieux·se, orienté résultats, esprit analytique ; capable de mentorat et de collaboration étroite avec Data Engineers et Product.

  • Atouts (nice to have) : Delta Lake, Unity Catalog, feature store, monitoring/alerting des modèles (performance, dérive, latence), mise en prod batch & near real-time, notions FinOps.

  • Architecture & patterns : pipelines de features, pipelines de scoring, A/B tests, data quality orientée modèles, sécurité/GDPR.

  • Formation : Bac+5 / MSc ou doctorat en data science, statistiques, mathématiques appliquées, informatique ou équivalent.

  • Langues : anglais & français professionnels parfaits


Recruitment process

En deux temps:

  • Entretien avec Data Scientist & Data Engineer

  • Entretien avec RH et Florent, CTO & CDO

Want to know more?