En tant que membre du pôle Expertise et Conseil, vous intervenez auprès de clients variés (grands groupes, ETI, start-ups, PME) pour concevoir, développer et maintenir les pipelines de données robustes, afin de répondre à leurs besoins analytiques et opérationnels.
Vos responsabilités incluent :
La conception d’architectures data (batch et/ou temps réel)
Le développement de pipelines ETL/ELT
La gestion et l’optimisation de data lakes / data warehouses
La collaboration avec les équipes data science, produit et infrastructure
La garantir de la qualité, de la sécurité et de la gouvernance des données
La contribution au développement des compétences internes
Les compétences recherchées portent principalement sur nos technologies partenaires (dbt, Snowflake, Fivetran/Airbyte, Alteryx, Tableau), mais nous restons attentifs à toute autre expertise technique que vous pourriez apporter.
Vos principales qualités :
Excellentes facultés d’écoute et de communication, à l’oral comme à l’écrit (notamment pour le travail transverse avec des data scientists, PMs, etc.)
Aptitude à travailler sur plusieurs sujets en parallèle et à hiérarchiser les priorités
Humilité, envie d’apprendre et capacité à transmettre ses connaissances
Sens du service, bon relationnel client et rigueur nécessaire à la réussite des projets
Esprit de mentorat pour accompagner les juniors ou intermédiaires
Compétences méthodologiques :
Capacité à définir des architecture de pipelines (batch, streaming, tests, orchestration, versionning)
Conception et modélisation des données
Maîtrise des principes de sécurisation des données (RBAC, chiffrement, anonymisation)
Estimation des charges et découpage en user stories techniques
Documentation des flux et des jeux de données (catalogue de données)
Application des principes Agile / Scrum / Kanban
Compétences techniques :
Langages : Python, SQL (avancé), Scala (souvent en contexte Spark)
Frameworks / outils :
Airflow, Airbyte, dbt, Kestra
Spark, Kafka
Docker, Kubernetes
Cloud & bases de données :
Snowflake, GCP (BigQuery, Dataflow), AWS (Redshift, Glue), Azure (Synapse)
Bases relationnelles (PostgreSQL, MySQL) et bases NoSQL (MongoDB, Cassandra)
DataOps / CI-CD / monitoring
Candidature
Entretien RH | Visio | 30min
Entretien compétences | Présentiel ou visio | 2h
Entretien “culture fit” | Présentiel ou visio | 1h
Proposition d’embauche
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.
Voir toutes les offres