Rejoins Edifice et construis la nouvelle plateforme analytique qui éclairera toutes nos décisions stratégiques futures ! Dans le cadre de la modernisation de notre stack data, nous créons un rôle clé pour faire le lien entre la plateforme technique data et les responsables produits et métiers.
Rattaché.e à l’équipe Data & IA et en collaboration étroite avec le Data Engineer et les clients internes ou externes, tu seras le garant de la transformation de nos données brutes en assets fiables, documentés et prêts à l’emploi. Ton rôle sera de construire un modèle de données permettant à toute l’entreprise de prendre des décisions éclairées et de développer de nouveaux produits data pour ses clients.
En t’appuyant sur notre nouvelle architecture full open source (Pyspark, Apache Iceberg, Trino, dbt), tu construiras la logique qui alimente l’ensemble de nos analyses et de notre reporting, dans un environnement souverain et sécurisé visant la certification SecNumCloud.
Tes missions principales seront :
Traduire les besoins des équipes métier (Chefs de projets, Product Managers, Marketing…) en spécifications techniques et en modèles de données robustes et scalables.
Concevoir et développer des transformations de données robustes en SQL avec dbt, en appliquant les principes de l’Analytics Engineering (modélisation, tests unitaires et d’intégration, documentation exhaustive, modularité, CI/CD) pour notre Data Lakehouse
Concevoir et mettre en œuvre les différentes couches de notre Data Warehouse au sein du Lakehouse (staging, marts, etc.) pour servir les cas d’usage analytiques.
Collaborer avec le Data Engineer pour assurer l’orchestration, la performance et la fiabilité des transformations de données via Apache Airflow.
Être le référent sur la qualité et la gouvernance des données transformées. Tu seras responsable de la documentation des métriques et de la promotion d’un dictionnaire de données partagé.
Permettre aux utilisateurs finaux d’être autonomes en leur fournissant des jeux de données propres et prêts à être explorés via nos outils de BI (Tableau, Superset) et de requêtage (DBeaver).
Optimiser et faire évoluer les dashboards Tableau existants, tout en pilotant la transition stratégique vers une approche ‘BI as Code’ avec des outils comme Superset, pour une gestion plus robuste et industrialisée de nos visualisations.
Participer à la veille technologique sur les outils et les bonnes pratiques de la modélisation et de la transformation de données (dbt, Trino, Iceberg, etc.).
Nous recherchons un(e) passionné(e) par la modélisation de données, qui aime traduire des problématiques business complexes en solutions data élégantes, fiables et performantes.
IMPORTANT : Ce poste requiert impérativement une expérience professionnelle de 2 ans après la fin de votre formation. Les candidatures ne répondant pas à ce critère ne pourront être retenues.
Compétences Techniques Requises :
Solide expérience en Data Analytics, Business Intelligence ou Analytics Engineering (minimum 2 ans souhaités).
Maîtrise experte du langage SQL et de son application à la transformation de données complexes.
Maîtrise avancée et pratique démontrée de dbt (dbt Core), incluant la gestion de projets complexes, l’implémentation de tests, la documentation et l’intégration continue.
Très bonne maîtrise de Tableau, notamment pour l’optimisation des dashboards existants et la création de nouvelles visualisations performantes.
Excellente connaissance des principes de modélisation de données (modélisation dimensionnelle, Kimball, etc.).
Bonne compréhension des architectures Data Warehouse et/ou Data Lakehouse.
Développement agile pour apporter rapidement de la valeur par petites itérations.
Compétences Appréciées :
Expérience avec un moteur de requêtage distribué comme Trino (ex PrestoSQL).
Des connaissances en Python pour l’analyse ou le scripting.
Une connaissance d’un orchestrateur comme Apache Airflow.
Connaissance des formats de table de Lakehouse (Apache Iceberg est un grand plus).
Une familiarité avec les environnements conteneurisés (Docker, Kubernetes) et les plateformes Cloud (OVHcloud est un plus).
Fort intérêt et/ou expérience avec les outils open source de l’écosystème data (Data Catalog comme DataHub, Data Quality comme Great Expectations, BI comme Superset), en phase avec notre culture Open Source.
Connaissance du protocole d’authentification OIDC.
Qualités Personnelles :
Excellentes capacités de communication, de pédagogie et de vulgarisation technique pour interagir avec des profils techniques et non-techniques.
Rigueur, curiosité et un fort esprit d’analyse orienté business.
Proactivité et capacité à résoudre des problèmes de manière autonome.
Envie d’apprendre en continu et de partager ses connaissances.
Fort esprit d’équipe et d’entraide.
Formation :
Si tu es prêt(e) à transformer la manière dont Edifice utilise la donnée et à construire le socle analytique de notre futur, n’hésite pas à postuler !
Process classique de recrutement sur une durée moyenne de 3 à 4 semaines :
1er entretien (visio) : validation de l’adéquation du profil
2nd entretien (visio) : validation technique dbt et SQL
3ème entretien (présentiel) : soft skills et capacité à collaborer avec les équipes métiers
Entretien contractuel final avec le responsable du pôle Data et un co-fondateur d’Edifice
Inscrivez-vous gratuitement pour découvrir les détails du poste : missions, profil recherché, et plus.
Vous avez déjà un compte ? Identifiez-vous !
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.
Voir toutes les offres