Data Engineer - CDI (H/F)

Résumé du poste
CDI
Bordeaux
Télétravail fréquent
Salaire : 50K à 60K €
Début : 28 février 2026
Expérience : > 3 ans
Éducation : Bac +5 / Master
Compétences & expertises
Contrôle qualité
Assurance qualité
Gestion de la qualité
Gestion des performances
Collaboration et travail d'équipe
+6

LeHibou
LeHibou

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

En tant que Data Engineer chez LeHibou, vous concevez, industrialisez et opérez des pipelines de données robustes et performants. Vous garantissez la qualité, la fiabilité et la disponibilité des données depuis les sources opérationnelles jusqu’aux couches analytiques, pour servir les usages Data & Produit. 🚀
Vous jouez un rôle clé dans l’évolution de notre plateforme data, son observabilité et sa scalabilité.
Vous serez directement rattaché au CTO de LeHibou.

Vos missions si vous l’acceptez ✨

  1. Conception et industrialisation de pipelines

    • Mise en place et optimisation d’ingestions (batch/near real-time) depuis des sources internes/externes via Airbyte et AWS (DMS, RDS, S3).

    • Orchestration, monitoring et alerting des workflows pour un MTTD/MTTR minimal.

  2. Architecture et modélisation

    • Structuration en layers (bronze/argent/or) avec séparation claire ingestion/transformations/serving.

    • Application des bonnes pratiques de modélisation (étoile, ERD, faits/dimensions) inspirées de Kimball pour servir les besoins Analytics et Produit.

  3. Qualité, fiabilité et gouvernance

    • Mise en place de tests automatisés (qualité, fraîcheur, contraintes) et de checks de data observability.

    • Standards de documentation (nomenclatures, définitions de métriques, SLAs de datasets) et diffusion des bonnes pratiques.

  4. Performance et optimisation

    • Tuning des requêtes et des modèles (PostgreSQL/DBT), optimisation des coûts et des temps de calcul.

    • Gestion des partitions, indexations, et stratégies d’incrémental.

  5. Collaboration avec les équipes métier et Data

    • Travail étroit avec notre Data Analyst et notre duo PO / CTO pour aligner la modélisation sur les cas d’usage.

    • Accompagnement/formation des Data Analysts sur DBT, bonnes pratiques de modélisation et qualité de données.

  6. Évolution de la plateforme

    • Contribution aux choix d’architecture, PoC sur de nouveaux composants.

    • Note: connaissance de Snowflake appréciée (susceptible d’être utilisée sur des projets futurs).

Stack Technique 💻

  • DBT (forte expertise attendue pour les transformations, tests et documentation)

  • AWS Quicksight (data viz et consommation)

  • AWS DMS, AWS RDS (PostgreSQL), S3

  • Airbyte (ingestion)

  • PostgreSQL (entreposage/serveur de requêtes)

  • Bonus: Snowflake (fortement apprécié pour de futurs projets), orchestration/monitoring (ex: Airflow/Prefect/DBT Cloud jobs, alerting CloudWatch)


Profil recherché

  • 3–5 ans min d’expérience en Data Engineering (ou rôle data proche avec forte composante ingestion/orchestration/industrialisation).

  • Maîtrise avancée de DBT (implémentation, tests, documentation, stratégies incrémentales).

  • Excellente connaissance de PostgreSQL et des bases relationnelles (tuning, indexation, partitions).

  • Expérience avec AWS Quicksight, DMS, RDS, S3 et Airbyte.

  • Solides bases de modélisation à la Kimball (schéma en étoile, ERD, tables de faits/dimensions).

  • Pratique de la qualité et de la gouvernance de données (tests, métriques, nomenclature, SLAs).

  • Apprécié: connaissance de Snowflake et des patterns de data warehousing cloud.

  • Capacité à collaborer avec des profils métier et à traduire des besoins en modèles et pipelines opérationnels.


Déroulement des entretiens

  • Entretien RH

  • Echange avec ton futur Manager, Raphaël

  • Use Case

  • Echange avec notre DG, Benjamin

  • Prise de références

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres