Basé.e à Paris, vous êtes le moteur de la fiabilité des données. Votre mission est de transformer les données brutes en modèles analytiques performants, en appliquant des standards de qualité similaires à ceux du développement logiciel.
Vos principales responsabilités incluront :
Architecture & Modélisation dbt : Concevoir, développer et maintenir des modèles de données complexes dans l’entrepôt Cloud (Snowflake, BigQuery, etc.) en utilisant intensivement dbt (Data Build Tool).
DataOps & CI/CD : Mettre en œuvre les principes de DataOps (tests automatisés, intégration continue, version control) pour garantir la qualité, la traçabilité et la réplicabilité des modèles de données.
Développement de Pipelines : Participer à la construction des pipelines d’ingestion et d’orchestration de données, en exploitant Python pour les logiques de transformation avancée et les API.
Conseil en Ingénierie : Conseiller nos clients sur l’architecture de leur Data Warehouse (DWH) et les former aux meilleures pratiques d’ingénierie et de modélisation avec dbt.
Innovation & ML/IA : Structurer les couches de données pour qu’elles soient directement exploitables par des applications et des projets de Machine Learning (IA).
Gestion de Projet : Piloter le delivery technique des solutions en mode agile.
Vous êtes un.e team player avec une expertise prouvée en modélisation SQL et une culture forte du génie logiciel appliquée à la Data.
Compétences et Expérience requises :
Vous justifiez d’une expérience professionnelle de 2 ans minimum en tant que Data Engineer, Analytics Engineer ou rôle similaire.
Maîtrise Technique Indispensable :
dbt (Data Build Tool) : Expertise solide.
SQL : Maîtrise avancée pour la modélisation et la performance des requêtes.
Python : Compétences en scripting et développement (APIs, ETL).
Cloud & DWH : Expérience avec au moins un Entrepôt de Données Cloud moderne (Snowflake, BigQuery, Redshift, etc.).
Outils d’Écosystème : Familiarité avec un outil d’orchestration (Airflow, par exemple) et un outil de version control (Git).
Appétit pour l’Innovation : Une curiosité pour la Data Science/IA est un atout.
Méthodologie : Rigueur dans le développement et expérience en méthodologie Agile.
Vos Super-Pouvoirs (Soft Skills) :
Pédagogue et Codeur : Vous écrivez du code propre, testable et bien documenté, et êtes capable de transmettre ces bonnes pratiques.
Rigueur et Qualité : Votre priorité est la fiabilité des modèles de données et la performance des architectures.
Curiosité Insatiable : Vous suivez activement l’évolution du mouvement Analytics Engineering.
Candidature en ligne : Compléter un formulaire.
Qualification RH (30 min - Visio) : Échange avec l’équipe RH sur vos motivations et votre parcours.
Entretien Technique & Pratique (1h30 - Visio) : Évaluation de votre expertise dbt, SQL et Data Engineering avec un expert.
Entretien Culture & Managerial : Discussion finale sur votre projection au sein de The Information Lab et adéquation culturelle.
Rencontrez Maria, Consultante Data
Rencontrez Léo, Consultant Data Senior
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.