Basé.e à Paris, vous êtes le moteur de la fiabilité des données. Votre mission est de transformer les données brutes en modèles analytiques performants, en appliquant des standards de qualité similaires à ceux du développement logiciel.
Vos principales responsabilités incluront :
Architecture & Modélisation dbt : Concevoir, développer et maintenir des modèles de données complexes dans l’entrepôt Cloud (Snowflake, BigQuery, etc.) en utilisant intensivement dbt (Data Build Tool).
DataOps & CI/CD : Mettre en œuvre les principes de DataOps (tests automatisés, intégration continue, version control) pour garantir la qualité, la traçabilité et la réplicabilité des modèles de données.
Développement de Pipelines : Participer à la construction des pipelines d’ingestion et d’orchestration de données, en exploitant Python pour les logiques de transformation avancée et les API.
Conseil en Ingénierie : Conseiller nos clients sur l’architecture de leur Data Warehouse (DWH) et les former aux meilleures pratiques d’ingénierie et de modélisation avec dbt.
Innovation & ML/IA : Structurer les couches de données pour qu’elles soient directement exploitables par des applications et des projets de Machine Learning (IA).
Gestion de Projet : Piloter le delivery technique des solutions en mode agile.
Vous êtes un.e team player avec une expertise prouvée en modélisation SQL et une culture forte du génie logiciel appliquée à la Data.
Compétences et Expérience requises :
Vous justifiez d’une expérience professionnelle de 2 ans minimum en tant que Data Engineer, Analytics Engineer ou rôle similaire.
Maîtrise Technique Indispensable :
dbt (Data Build Tool) : Expertise solide.
SQL : Maîtrise avancée pour la modélisation et la performance des requêtes.
Python : Compétences en scripting et développement (APIs, ETL).
Cloud & DWH : Expérience avec au moins un Entrepôt de Données Cloud moderne (Snowflake, BigQuery, Redshift, etc.).
Outils d’Écosystème : Familiarité avec un outil d’orchestration (Airflow, par exemple) et un outil de version control (Git).
Appétit pour l’Innovation : Une curiosité pour la Data Science/IA est un atout.
Méthodologie : Rigueur dans le développement et expérience en méthodologie Agile.
Vos Super-Pouvoirs (Soft Skills) :
Pédagogue et Codeur : Vous écrivez du code propre, testable et bien documenté, et êtes capable de transmettre ces bonnes pratiques.
Rigueur et Qualité : Votre priorité est la fiabilité des modèles de données et la performance des architectures.
Curiosité Insatiable : Vous suivez activement l’évolution du mouvement Analytics Engineering.
Si vous vous reconnaissez dans cette description et que vous souhaitez donner du sens aux données de nos clients, postulez dès maintenant !
Notre processus est conçu pour être rapide et efficace, centré sur l’échange et l’expertise :
Candidature en ligne : Compléter un formulaire.
Qualification RH (30 min - Visio) : Échange avec l’équipe RH sur vos motivations et votre parcours.
Test technique (30min - Visio) : Tests techniques en fonction de vos compétences.
Entretien Technique & Pratique (1h - Visio) : Évaluation de votre expertise Data avec un.e consultant.e sénior.
Entretien Culture & Managerial (1h - Présentiel) : Discussion finale sur votre projection au sein de The Information Lab et adéquation culturelle.
Rencontrez Maria, Consultante Data
Rencontrez Léo, Consultant Data Senior
Tieto spoločnosti tiež prijímajú pracovníkov na pozíciu "{profesia}".