Senior Data Engineer (H/F) - CDI

Rejoignez 42, une école d'informatique innovante qui forme des étudiants aux défis technologiques de demain. En tant que Senior Data Engineer, vous serez responsable de l'intégration des données Legacy/Next, de l'industrialisation de notre plateforme de données et de l'accompagnement de l'équipe data. Vous devez avoir au moins 5 à 6 ans d'expérience en Data Engineering et/ou Analytics Engineering, une maîtrise avancée de SQL et Python, et une expérience démontrée sur Dagster (ou Airflow) et dbt en production.

Résumé suggéré par Welcome to the Jungle

CDI
Paris
Télétravail occasionnel
Salaire : Non spécifié
Expérience : > 5 ans
Missions clés

Unifier les schémas Legacy et 42 Next dans BigQuery, finaliser l'intégration de toutes les sources de données.

Rationaliser les dashboards Superset suite à la migration depuis Looker Studio, maintenir et optimiser le RLS.

Industrialiser les scripts de suppression déjà conçus avec notre DPO, automatiser les processus article 17.

École 42
École 42

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

42 révolutionne l’enseignement de l’informatique avec une approche pédagogique innovante basée sur l’apprentissage par les pairs. Présente dans 50+ campus internationaux, 42 forme plus de 20 000 étudiant·e·s aux défis technologiques de demain.

Contexte du poste

Suite au succès du programme 42 Next, notre Modern Data Stack (Dagster + dltHub + dbt + BigQuery + Superset) est désormais en production. Nous recherchons un·e Senior Data Engineer pour finaliser l’intégration des données Legacy/Next et industrialiser notre plateforme data avant fin 2025.

Équipe actuelle : 1 Data Engineer, 1 Data Scientist + 2 stagiaires (DE + Analytics Engineer) en cours de recrutement.

Missions principales

Architecture & Intégration données

  • Unifier les schémas Legacy et 42 Next dans BigQuery, incluant gouvernance des noms et tests dbt

  • Finaliser l’intégration de toutes les sources de données dans un projet BigQuery unifié

  • Industrialiser les pipelines dltHub/Dagster pour les nouvelles sources applicatives

Exposition & Self-service

  • Rationaliser les dashboards Superset suite à la migration depuis Looker Studio

  • Maintenir et optimiser le RLS (Row Level Security) pour la ségrégation par campus (50+ sites)

  • Évaluer et implémenter GenBI (GPT-to-Viz) pour la couche sémantique

Processus GDPR & Conformité

  • Industrialiser les scripts de suppression déjà conçus avec notre DPO

  • Automatiser les processus article 17 via Dagster assets-first

  • Documenter les procédures d’extraction et de suppression de données

Leadership & Mentorat

  • Accompagner l’équipe data : 1 Data Engineer senior, 1 Data Scientist, 2 stagiaires

  • Définir les standards de code-review et bonnes pratiques dbt

  • Continuer l’accompagnement des utilisateurs 42 Central et campus internationaux

Roadmap 2025-2026

  • Préparer les futurs flux d’activation (reverse ETL ou APIs) selon les besoins métier

  • Planifier la migration complète Legacy/Next pour 2026

  • Anticiper les besoins d’ingestion supplémentaires et d’exposition avancée


Profil recherché

Compétences techniques incontournables

  • 5 à 6 ans minimum d’expérience en Data Engineering et/ou Analytics Engineering

  • Maîtrise avancée de SQL (BigQuery) et Python

  • Expérience démontrée sur Dagster (ou Airflow) et dbt en production

  • Connaissance d’un cloud data warehouse (BigQuery, Snowflake, Redshift)

  • Exposition concrète aux problématiques GDPR (data deletion, auditabilité)

Leadership & Soft skills

  • Approche produit et sens de la pédagogie pour vulgariser et embarquer

  • Capacité à fédérer une communauté autour des standards data

  • Appétence forte pour l’éducation, l’impact social et le multiculturel

  • Autonomie et capacité à prendre des initiatives

Bonus appréciés

  • Contributions open-source (Dagster, dbt, Superset…)

  • Expérience Kubernetes et environnements GitOps

  • Connaissance des enjeux d’activation data (reverse ETL, APIs)


Déroulement des entretiens

  • Screening (20-30 min) : Brice Luu (Lead Data actuel)

  • Étude de cas (2h asynchrone) : Modélisation dbt + plan de purge GDPR

  • Entretien technique (60 min) : Discussion architecture, revue de code

  • Entretien CPO & culture fit : Direction + rencontre équipe élargie

  • Entretien RH : échange sur sujet administratifs et culture fit

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.