Senior Data Engineer F/H

Résumé du poste
CDI
Boulogne-Billancourt
Télétravail occasionnel
Salaire : Non spécifié
Compétences & expertises
Amélioration continue
Communication
Outils d'automatisation
Gestion de la sécurité
GitHub
+6

Catalina France
Catalina France

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

L’Opportunité

En tant que Senior Data Engineer, tu joueras un rôle clé dans la construction et l’évolution de l’entrepôt de données de Catalina, conçu pour fournir des insights business en temps réel et soutenir des analyses avancées à travers toute l’organisation.

Tu rejoindras l’équipe Data Warehouse & BI, responsable du développement et de l’optimisation de l’écosystème de données de nouvelle génération basé sur Snowflake, permettant un traitement de données évolutif, fiable et haute performance pour l’analytics, la mesure et la data science.

Tu travailleras avec Snowflake, dbt Core, Git et Kafka, en exploitant l’architecture Medallion (bronze, silver, gold) pour livrer des actifs data propres, gouvernés et en temps réel. Tu utiliseras ta maîtrise du SQL, des fonctionnalités avancées de Snowflake et des meilleures pratiques de modélisation de données pour garantir une qualité et une efficacité maximales à travers toutes les couches de la plateforme.

Tes missions

  • Concevoir, implémenter et optimiser des pipelines de données utilisant Snowflake et dbt Core.

  • Ingestion et traitement de données en streaming depuis Kafka vers Snowflake, aussi bien en quasi temps réel que via des workflows planifiés.

  • Développer et maintenir les couches de l’architecture Medallion (bronze/silver/gold), en garantissant fiabilité, traçabilité et scalabilité.

  • Exploiter les fonctionnalités de Snowflake (streams, dynamic tables, tasks) pour un traitement incrémental et automatisé.

  • Mettre en place et gérer des politiques RBAC pour assurer un accès sécurisé et conforme aux données.

  • Concevoir des modèles de données efficaces et orientés métier, adaptés aux usages analytiques et opérationnels.

  • Collaborer avec les équipes analytics, engineering et business pour transformer les besoins en solutions data performantes.

  • Appliquer les bonnes pratiques en optimisation SQL, gestion de version Git et revue de code.

  • Utiliser des outils de développement assistés par IA comme GitHub Copilot et ChatGPT pour améliorer ta productivité, ta documentation et la qualité de ton code.

  • Surveiller et améliorer la qualité des données, la latence et l’observabilité de la plateforme.

  • Soutenir les ingénieurs juniors et contribuer à une culture d’amélioration continue et d’innovation.

Informations complémentaires

  • Ton futur lieu de travail : Boulogne-Billancourt (Marcel Sembat)

  • Contrat : CDI

  • Télétravail : 3 jours de télétravail possible / semaine

  • Avantages : 1 RTT / mois, CE, participation, prime de vacances, tickets restaurant, prise en charge de 2/3 de la mutuelle, remboursement à la hauteur de 50% de votre titre de transport


Profil recherché

  • Master en informatique, ingénierie ou domaine équivalent. 

  • 4+ ans d’expérience en data engineering, idéalement sur des data warehouses cloud. 

  • Maîtrise avérée de Snowflake (streams, dynamic tables, tasks, optimisation de requêtes). 

  • Excellente connaissance du SQL et des principes de modélisation (star, snowflake, data vault). 

  • Expérience pratique avec dbt Core pour des transformations modulaires, testables et versionnées. 

  • Expérience d’intégration de Kafka ou d’autres systèmes de streaming dans des pipelines de données. 

  • Connaissance de l’architecture Medallion ou d’approches similaires en couches. 

  • Aisance avec Git pour le versioning et le travail collaboratif. 

  • Compréhension de métriques business clés (efficacité des campagnes, ROI, engagement client). 

  • À l’aise avec les outils IA comme GitHub Copilot et ChatGPT pour le développement et la documentation. 

  • Excellentes compétences analytiques, de résolution de problèmes et de communication. 

  • Maitrise du français et de l’anglais à l’oral et à l’écrit.


Déroulement des entretiens

  • Entretien 1 avec l’équipe recrutement 

  • Entretien 2 avec Nicolas, Engineering Director et Alexander, Data Engineering Manager 

  • Entretien 3 avec Stéphane, COO et une personne de l’équipe data produit

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres