Data Engineer - CDI (H/F)

Indefinido
Bordeaux
Unos días en casa
Salario: 50K a 60K €
Fecha de inicio: 28 de febrero de 2026
Experiencia: > 3 años
Formación: Licenciatura / Máster

LeHibou
LeHibou

¿Te interesa esta oferta?

Preguntas y respuestas sobre esta oferta

El puesto

Descripción del puesto

En tant que Data Engineer chez LeHibou, vous concevez, industrialisez et opérez des pipelines de données robustes et performants. Vous garantissez la qualité, la fiabilité et la disponibilité des données depuis les sources opérationnelles jusqu’aux couches analytiques, pour servir les usages Data & Produit. 🚀
Vous jouez un rôle clé dans l’évolution de notre plateforme data, son observabilité et sa scalabilité.
Vous serez directement rattaché au CTO de LeHibou.

Vos missions si vous l’acceptez ✨

  1. Conception et industrialisation de pipelines

    • Mise en place et optimisation d’ingestions (batch/near real-time) depuis des sources internes/externes via Airbyte et AWS (DMS, RDS, S3).

    • Orchestration, monitoring et alerting des workflows pour un MTTD/MTTR minimal.

  2. Architecture et modélisation

    • Structuration en layers (bronze/argent/or) avec séparation claire ingestion/transformations/serving.

    • Application des bonnes pratiques de modélisation (étoile, ERD, faits/dimensions) inspirées de Kimball pour servir les besoins Analytics et Produit.

  3. Qualité, fiabilité et gouvernance

    • Mise en place de tests automatisés (qualité, fraîcheur, contraintes) et de checks de data observability.

    • Standards de documentation (nomenclatures, définitions de métriques, SLAs de datasets) et diffusion des bonnes pratiques.

  4. Performance et optimisation

    • Tuning des requêtes et des modèles (PostgreSQL/DBT), optimisation des coûts et des temps de calcul.

    • Gestion des partitions, indexations, et stratégies d’incrémental.

  5. Collaboration avec les équipes métier et Data

    • Travail étroit avec notre Data Analyst et notre duo PO / CTO pour aligner la modélisation sur les cas d’usage.

    • Accompagnement/formation des Data Analysts sur DBT, bonnes pratiques de modélisation et qualité de données.

  6. Évolution de la plateforme

    • Contribution aux choix d’architecture, PoC sur de nouveaux composants.

    • Note: connaissance de Snowflake appréciée (susceptible d’être utilisée sur des projets futurs).

Stack Technique 💻

  • DBT (forte expertise attendue pour les transformations, tests et documentation)

  • AWS Quicksight (data viz et consommation)

  • AWS DMS, AWS RDS (PostgreSQL), S3

  • Airbyte (ingestion)

  • PostgreSQL (entreposage/serveur de requêtes)

  • Bonus: Snowflake (fortement apprécié pour de futurs projets), orchestration/monitoring (ex: Airflow/Prefect/DBT Cloud jobs, alerting CloudWatch)


Requisitos

  • 3–5 ans min d’expérience en Data Engineering (ou rôle data proche avec forte composante ingestion/orchestration/industrialisation).

  • Maîtrise avancée de DBT (implémentation, tests, documentation, stratégies incrémentales).

  • Excellente connaissance de PostgreSQL et des bases relationnelles (tuning, indexation, partitions).

  • Expérience avec AWS Quicksight, DMS, RDS, S3 et Airbyte.

  • Solides bases de modélisation à la Kimball (schéma en étoile, ERD, tables de faits/dimensions).

  • Pratique de la qualité et de la gouvernance de données (tests, métriques, nomenclature, SLAs).

  • Apprécié: connaissance de Snowflake et des patterns de data warehousing cloud.

  • Capacité à collaborer avec des profils métier et à traduire des besoins en modèles et pipelines opérationnels.


Proceso de selección

  • Entretien RH

  • Echange avec ton futur Manager, Raphaël

  • Use Case

  • Echange avec notre DG, Benjamin

  • Prise de références

¿Quieres saber más?