Consultant.e Data Engineer Paris

Permanent contract
Paris
Salary: Not specified
A few days at home
Experience: > 2 years
Education: PhD or more

The Information Lab
The Information Lab

Interested in this job?

Questions and answers about the job

The position

Job description

En tant que membre du pôle Expertise et Conseil, vous intervenez auprès de clients variés (grands groupes, ETI, start-ups, PME) pour concevoir, développer et maintenir les pipelines de données robustes, afin de répondre à leurs besoins analytiques et opérationnels.

Vos responsabilités incluent :

  • La conception d’architectures data (batch et/ou temps réel)

  • Le développement de pipelines ETL/ELT

  • La gestion et l’optimisation de data lakes / data warehouses

  • La collaboration avec les équipes data science, produit et infrastructure

  • La garantir de la qualité, de la sécurité et de la gouvernance des données

  • La contribution au développement des compétences internes

Les compétences recherchées portent principalement sur nos technologies partenaires (dbt, Snowflake, Fivetran/Airbyte, Alteryx, Tableau), mais nous restons attentifs à toute autre expertise technique que vous pourriez apporter.


Preferred experience

Vos principales qualités :

  1. Excellentes facultés d’écoute et de communication, à l’oral comme à l’écrit (notamment pour le travail transverse avec des data scientists, PMs, etc.)

  2. Aptitude à travailler sur plusieurs sujets en parallèle et à hiérarchiser les priorités

  3. Humilité, envie d’apprendre et capacité à transmettre ses connaissances

  4. Sens du service, bon relationnel client et rigueur nécessaire à la réussite des projets

  5. Esprit de mentorat pour accompagner les juniors ou intermédiaires

Compétences méthodologiques :

  1. Capacité à définir des architecture de pipelines (batch, streaming, tests, orchestration, versionning)

  2. Conception et modélisation des données

  3. Maîtrise des principes de sécurisation des données (RBAC, chiffrement, anonymisation)

  4. Estimation des charges et découpage en user stories techniques

  5. Documentation des flux et des jeux de données (catalogue de données)

  6. Application des principes Agile / Scrum / Kanban

Compétences techniques :

  • Langages : Python, SQL (avancé), Scala (souvent en contexte Spark)

  • Frameworks / outils :

    • Airflow, Airbyte, dbt, Kestra

    • Spark, Kafka

    • Docker, Kubernetes

  • Cloud & bases de données :

    • Snowflake, GCP (BigQuery, Dataflow), AWS (Redshift, Glue), Azure (Synapse)

    • Bases relationnelles (PostgreSQL, MySQL) et bases NoSQL (MongoDB, Cassandra)

  • DataOps / CI-CD / monitoring

    • GitLab CI, Jenkins, Terraform, dbt tests, Great Expectations, etc

Recruitment process

  1. Candidature

  2. Entretien RH | Visio | 30min

  3. Entretien compétences | Présentiel ou visio | 2h

  4. Entretien “culture fit” | Présentiel ou visio | 1h

  5. Proposition d’embauche

Want to know more?

These job openings might interest you!

These companies are also recruiting for the position of “Données/Business Intelligence”.

See all job openings