🚛 Data Engineer - Junior

Resumen del puesto
Indefinido
Levallois-Perret
Unos días en casa
Salario: < 44K €
Fecha de inicio: 01 de diciembre de 2025
Experiencia: > 6 meses
Formación: Licenciatura / Máster
Competencias y conocimientos
Redacción técnica
Control de calidad
Mejora continua
Gestión de la documentación
Capacidad de comunicación
+10

Upply
Upply

¿Te interesa esta oferta?

Preguntas y respuestas sobre esta oferta

El puesto

Descripción del puesto

Upply construit une plateforme d’intelligence de marché pour le transport & la logistique en Europe. Tu vas rejoindre l’équipe RED (Research, Engineering & Development).

🎯Tes principales responsabilités

🔄 1. Construction & exécution de pipelines (avec mentoring)

  • Participer à la conception et au développement de pipelines ETL/ELT fiables (batch/stream).

  • Contribuer aux Jobs Databricks et à l’orchestration (Data Factory) sous l’accompagnement du Lead.

  • Gérer les I/O vers Delta Lake / Unity Catalog.

🧪 2. Qualité des données & observabilité

  • Mettre en place des contrôles qualité (fraîcheur, intégrité, complétude) et alertes de base.

  • Suivre les métriques d’exécution (temps, coûts, taux d’échec) et documenter les incidents.

🤝 3. Collaboration transverse

  • Travailler avec les Data Scientists pour préparer/déployer des features & modèles.

  • Collaborer avec Produit & Backend pour la consommation des datasets et API internes.

  • Partager l’avancement, remonter les dépendances et risques.

📝 4. Documentation & partage

  • Rédiger la documentation technique (schémas de flux, contrats de données, readme).

  • Contribuer aux standards (naming, conventions, bonnes pratiques).

🚀 5. Montée en compétences structurée

  • Suivre un parcours 30/60/90 jours (revues de code, pair programming, mini-projet).

  • Proposer des améliorations continues (petits PRs : performance, robustesse, coût).

🧑‍🏫 Encadrement & formation

  • Onboarding et mentorat assuré par notre Lead Data Engineer.

  • Tu seras formé·e aux outils de la stack (Databricks, ADF, Delta/UC) et aux pratiques maison (qualité, sécurité, FinOps light).


Requisitos

  • Compétences clés : bases solides en Python, SQL, PySpark.

  • Notions cloud : comprendre stockage/compute, jobs/orchestration ; curiosité pour Azure & Databricks.

  • Bonnes pratiques : workflow Git/GitHub, CI simple, code lisible, tests basiques.

  • État d’esprit : motivé·e, débrouillard·e, envie d’apprendre, pragmatique, sens du service et du travail en équipe.

  • Atouts (nice to have) : Delta Lake, Unity Catalog, Azure Data Factory, monitoring/alerting, sens FinOps.

  • Formation : Bac+3/5 en informatique/ingénierie/data (ou projets/stages équivalents).

  • Langues : à l’aise en anglais ; français apprécié.

Pour un profil junior, fondamentaux + motivation priment. Le mentoring et la formation sont assurés par le Lead Data Engineer.


Proceso de selección

En deux temps:

  • Entretien avec Data Scientist & Data Engineer

  • Entretien avec RH et Florent, CTO & CDO

¿Quieres saber más?