Upply construit une plateforme d’intelligence de marché pour le transport & la logistique en Europe. Tu vas rejoindre l’équipe RED (Research, Engineering & Development).
🎯Tes principales responsabilités
Participer à la conception et au développement de pipelines ETL/ELT fiables (batch/stream).
Contribuer aux Jobs Databricks et à l’orchestration (Data Factory) sous l’accompagnement du Lead.
Gérer les I/O vers Delta Lake / Unity Catalog.
Mettre en place des contrôles qualité (fraîcheur, intégrité, complétude) et alertes de base.
Suivre les métriques d’exécution (temps, coûts, taux d’échec) et documenter les incidents.
Travailler avec les Data Scientists pour préparer/déployer des features & modèles.
Collaborer avec Produit & Backend pour la consommation des datasets et API internes.
Partager l’avancement, remonter les dépendances et risques.
Rédiger la documentation technique (schémas de flux, contrats de données, readme).
Contribuer aux standards (naming, conventions, bonnes pratiques).
Suivre un parcours 30/60/90 jours (revues de code, pair programming, mini-projet).
Proposer des améliorations continues (petits PRs : performance, robustesse, coût).
Onboarding et mentorat assuré par notre Lead Data Engineer.
Tu seras formé·e aux outils de la stack (Databricks, ADF, Delta/UC) et aux pratiques maison (qualité, sécurité, FinOps light).
Compétences clés : bases solides en Python, SQL, PySpark.
Notions cloud : comprendre stockage/compute, jobs/orchestration ; curiosité pour Azure & Databricks.
Bonnes pratiques : workflow Git/GitHub, CI simple, code lisible, tests basiques.
État d’esprit : motivé·e, débrouillard·e, envie d’apprendre, pragmatique, sens du service et du travail en équipe.
Atouts (nice to have) : Delta Lake, Unity Catalog, Azure Data Factory, monitoring/alerting, sens FinOps.
Formation : Bac+3/5 en informatique/ingénierie/data (ou projets/stages équivalents).
Langues : à l’aise en anglais ; français apprécié.
Pour un profil junior, fondamentaux + motivation priment. Le mentoring et la formation sont assurés par le Lead Data Engineer.
En deux temps:
Entretien avec Data Scientist & Data Engineer
Entretien avec RH et Florent, CTO & CDO
Rencontrez Marie, Data Scientist
Rencontrez Florian, Product Manager