Upply construit une plateforme d’intelligence de marché pour le transport & la logistique en Europe. Tu vas rejoindre l’équipe RED (Research, Engineering & Development) pour concevoir, construire et opérer des pipelines de données fiables qui alimentent nos produits analytics et data science.
Développer et exécuter des pipelines ETL/ELT sur Databricks (PySpark) en batch et streaming.
Ingest, transformer et publier des jeux de données vers Delta Lake / Unity Catalog avec des data contracts clairs.
Mettre en place des contrôles qualité (fraîcheur, complétude, intégrité) et des alertes de base.
Contribuer à l’orchestration via Databricks Jobs et Azure Data Factory.
Collaborer avec les Data Scientists pour la préparation de features et le déploiement de modèles.
Documenter les flux et décisions techniques (Notion) et utiliser GitHub pour les revues de code.
Apprendre vite : pairing avec le Lead Data Engineer, petites améliorations fréquentes, montée en autonomie.
Compétences clés : bases solides en Python, SQL, PySpark.
Notions cloud : comprendre stockage/compute, jobs/orchestration ; curiosité pour Azure & Databricks.
Bonnes pratiques : workflow Git/GitHub, CI simple, code lisible, tests basiques.
État d’esprit : motivé·e, débrouillard·e, envie d’apprendre, pragmatique, sens du service et du travail en équipe.
Atouts (nice to have) : Delta Lake, Unity Catalog, Azure Data Factory, monitoring/alerting, sens FinOps.
Formation : Bac+3/5 en informatique/ingénierie/data (ou projets/stages équivalents).
Langues : à l’aise en anglais ; français apprécié.
Pour un profil junior, fundamentaux + motivation priment. Le mentoring et la formation sont assurés par le Lead Data Engineer.
En deux temps:
Entretien avec Alan, Lead Data Engineer ainsi qu’un Data Scientist
Entretien avec Cécile, HR et Florent, CDO
Rencontrez Marie, Data Scientist
Rencontrez Florian, Product Manager
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.