Consultant.e Data Engineer Paris

Plný úväzok
Paris
Plat: Neuvedené
Niekoľko dní doma
skúsenosti: > 2 roky
Vzdelanie: PhD

The Information Lab
The Information Lab

Máte záujem o túto ponuku?

Otázky a odpovede ohľadne ponuky

Pozícia

Popis pracovnej ponuky

En tant que membre du pôle Expertise et Conseil, vous intervenez auprès de clients variés (grands groupes, ETI, start-ups, PME) pour concevoir, développer et maintenir les pipelines de données robustes, afin de répondre à leurs besoins analytiques et opérationnels.

Vos responsabilités incluent :

  • La conception d’architectures data (batch et/ou temps réel)

  • Le développement de pipelines ETL/ELT

  • La gestion et l’optimisation de data lakes / data warehouses

  • La collaboration avec les équipes data science, produit et infrastructure

  • La garantir de la qualité, de la sécurité et de la gouvernance des données

  • La contribution au développement des compétences internes

Les compétences recherchées portent principalement sur nos technologies partenaires (dbt, Snowflake, Fivetran/Airbyte, Alteryx, Tableau), mais nous restons attentifs à toute autre expertise technique que vous pourriez apporter.


Preferované skúsenosti

Vos principales qualités :

  1. Excellentes facultés d’écoute et de communication, à l’oral comme à l’écrit (notamment pour le travail transverse avec des data scientists, PMs, etc.)

  2. Aptitude à travailler sur plusieurs sujets en parallèle et à hiérarchiser les priorités

  3. Humilité, envie d’apprendre et capacité à transmettre ses connaissances

  4. Sens du service, bon relationnel client et rigueur nécessaire à la réussite des projets

  5. Esprit de mentorat pour accompagner les juniors ou intermédiaires

Compétences méthodologiques :

  1. Capacité à définir des architecture de pipelines (batch, streaming, tests, orchestration, versionning)

  2. Conception et modélisation des données

  3. Maîtrise des principes de sécurisation des données (RBAC, chiffrement, anonymisation)

  4. Estimation des charges et découpage en user stories techniques

  5. Documentation des flux et des jeux de données (catalogue de données)

  6. Application des principes Agile / Scrum / Kanban

Compétences techniques :

  • Langages : Python, SQL (avancé), Scala (souvent en contexte Spark)

  • Frameworks / outils :

    • Airflow, Airbyte, dbt, Kestra

    • Spark, Kafka

    • Docker, Kubernetes

  • Cloud & bases de données :

    • Snowflake, GCP (BigQuery, Dataflow), AWS (Redshift, Glue), Azure (Synapse)

    • Bases relationnelles (PostgreSQL, MySQL) et bases NoSQL (MongoDB, Cassandra)

  • DataOps / CI-CD / monitoring

    • GitLab CI, Jenkins, Terraform, dbt tests, Great Expectations, etc

Náborový proces

  1. Candidature

  2. Entretien RH | Visio | 30min

  3. Entretien compétences | Présentiel ou visio | 2h

  4. Entretien “culture fit” | Présentiel ou visio | 1h

  5. Proposition d’embauche

Chcete sa dozvedieť viac?

Tieto pracovné ponuky by vás mohli zaujímať!

Tieto spoločnosti tiež prijímajú pracovníkov na pozíciu "{profesia}".

Zobraziť všetky pracovné ponuky