L’Opportunité
En tant que Senior Data Engineer, tu joueras un rôle clé dans la construction et l’évolution de l’entrepôt de données de Catalina, conçu pour fournir des insights business en temps réel et soutenir des analyses avancées à travers toute l’organisation.
Tu rejoindras l’équipe Data Warehouse & BI, responsable du développement et de l’optimisation de l’écosystème de données de nouvelle génération basé sur Snowflake, permettant un traitement de données évolutif, fiable et haute performance pour l’analytics, la mesure et la data science.
Tu travailleras avec Snowflake, dbt Core, Git et Kafka, en exploitant l’architecture Medallion (bronze, silver, gold) pour livrer des actifs data propres, gouvernés et en temps réel. Tu utiliseras ta maîtrise du SQL, des fonctionnalités avancées de Snowflake et des meilleures pratiques de modélisation de données pour garantir une qualité et une efficacité maximales à travers toutes les couches de la plateforme.
Tes missions
Concevoir, implémenter et optimiser des pipelines de données utilisant Snowflake et dbt Core.
Ingestion et traitement de données en streaming depuis Kafka vers Snowflake, aussi bien en quasi temps réel que via des workflows planifiés.
Développer et maintenir les couches de l’architecture Medallion (bronze/silver/gold), en garantissant fiabilité, traçabilité et scalabilité.
Exploiter les fonctionnalités de Snowflake (streams, dynamic tables, tasks) pour un traitement incrémental et automatisé.
Mettre en place et gérer des politiques RBAC pour assurer un accès sécurisé et conforme aux données.
Concevoir des modèles de données efficaces et orientés métier, adaptés aux usages analytiques et opérationnels.
Collaborer avec les équipes analytics, engineering et business pour transformer les besoins en solutions data performantes.
Appliquer les bonnes pratiques en optimisation SQL, gestion de version Git et revue de code.
Utiliser des outils de développement assistés par IA comme GitHub Copilot et ChatGPT pour améliorer ta productivité, ta documentation et la qualité de ton code.
Surveiller et améliorer la qualité des données, la latence et l’observabilité de la plateforme.
Soutenir les ingénieurs juniors et contribuer à une culture d’amélioration continue et d’innovation.
Informations complémentaires
Ton futur lieu de travail : Boulogne-Billancourt (Marcel Sembat)
Contrat : CDI
Télétravail : 3 jours de télétravail possible / semaine
Avantages : 1 RTT / mois, CE, participation, prime de vacances, tickets restaurant, prise en charge de 2/3 de la mutuelle, remboursement à la hauteur de 50% de votre titre de transport
Master en informatique, ingénierie ou domaine équivalent.
4+ ans d’expérience en data engineering, idéalement sur des data warehouses cloud.
Maîtrise avérée de Snowflake (streams, dynamic tables, tasks, optimisation de requêtes).
Excellente connaissance du SQL et des principes de modélisation (star, snowflake, data vault).
Expérience pratique avec dbt Core pour des transformations modulaires, testables et versionnées.
Expérience d’intégration de Kafka ou d’autres systèmes de streaming dans des pipelines de données.
Connaissance de l’architecture Medallion ou d’approches similaires en couches.
Aisance avec Git pour le versioning et le travail collaboratif.
Compréhension de métriques business clés (efficacité des campagnes, ROI, engagement client).
À l’aise avec les outils IA comme GitHub Copilot et ChatGPT pour le développement et la documentation.
Excellentes compétences analytiques, de résolution de problèmes et de communication.
Maitrise du français et de l’anglais à l’oral et à l’écrit.
Entretien 1 avec l’équipe recrutement
Entretien 2 avec Nicolas, Engineering Director et Alexander, Data Engineering Manager
Entretien 3 avec Stéphane, COO et une personne de l’équipe data produit
Rencontrez Mathilde, Data Analyst
Rencontrez Nicolas, Engineering Director
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.