Consultant.e Data Engineer Paris

CDI
Paris
Salaire : Non spécifié
Télétravail fréquent
Expérience : > 2 ans
Éducation : > Bac +5 / Doctorat

The Information Lab
The Information Lab

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

En tant que membre du pôle Expertise et Conseil, vous intervenez auprès de clients variés (grands groupes, ETI, start-ups, PME) pour concevoir, développer et maintenir les pipelines de données robustes, afin de répondre à leurs besoins analytiques et opérationnels.

Vos responsabilités incluent :

  • La conception d’architectures data (batch et/ou temps réel)

  • Le développement de pipelines ETL/ELT

  • La gestion et l’optimisation de data lakes / data warehouses

  • La collaboration avec les équipes data science, produit et infrastructure

  • La garantir de la qualité, de la sécurité et de la gouvernance des données

  • La contribution au développement des compétences internes

Les compétences recherchées portent principalement sur nos technologies partenaires (dbt, Snowflake, Fivetran/Airbyte, Alteryx, Tableau), mais nous restons attentifs à toute autre expertise technique que vous pourriez apporter.


Profil recherché

Vos principales qualités :

  1. Excellentes facultés d’écoute et de communication, à l’oral comme à l’écrit (notamment pour le travail transverse avec des data scientists, PMs, etc.)

  2. Aptitude à travailler sur plusieurs sujets en parallèle et à hiérarchiser les priorités

  3. Humilité, envie d’apprendre et capacité à transmettre ses connaissances

  4. Sens du service, bon relationnel client et rigueur nécessaire à la réussite des projets

  5. Esprit de mentorat pour accompagner les juniors ou intermédiaires

Compétences méthodologiques :

  1. Capacité à définir des architecture de pipelines (batch, streaming, tests, orchestration, versionning)

  2. Conception et modélisation des données

  3. Maîtrise des principes de sécurisation des données (RBAC, chiffrement, anonymisation)

  4. Estimation des charges et découpage en user stories techniques

  5. Documentation des flux et des jeux de données (catalogue de données)

  6. Application des principes Agile / Scrum / Kanban

Compétences techniques :

  • Langages : Python, SQL (avancé), Scala (souvent en contexte Spark)

  • Frameworks / outils :

    • Airflow, Airbyte, dbt, Kestra

    • Spark, Kafka

    • Docker, Kubernetes

  • Cloud & bases de données :

    • Snowflake, GCP (BigQuery, Dataflow), AWS (Redshift, Glue), Azure (Synapse)

    • Bases relationnelles (PostgreSQL, MySQL) et bases NoSQL (MongoDB, Cassandra)

  • DataOps / CI-CD / monitoring

    • GitLab CI, Jenkins, Terraform, dbt tests, Great Expectations, etc

Déroulement des entretiens

  1. Candidature

  2. Entretien RH | Visio | 30min

  3. Entretien compétences | Présentiel ou visio | 2h

  4. Entretien “culture fit” | Présentiel ou visio | 1h

  5. Proposition d’embauche

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres