Data Engineer GCP & Big Data

Rejoignez notre équipe en tant que Data Engineer GCP & Big Data. Vous serez responsable de la construction de pipelines de données robustes, de la conception de l'architecture et de la modélisation, de la mise en place de la qualité et de la gouvernance des données, ainsi que de l'industrialisation et du DevOps Data. Vous devez avoir une expérience de 2 à 4 ans en Data Engineering avec un focus sur BigQuery, ainsi qu'une maîtrise de SQL et Python.

Suggested summary by Welcome to the Jungle

Permanent contract
Paris
A few days at home
Salary: Not specified
Experience: > 2 years
Education: Master's Degree
Key missions

Développer des pipelines batch robustes avec Apache Beam / Dataflow pour traiter des volumes de données massifs.

Concevoir des pipelines de streaming temps réel avec Pub/Sub et Dataflow Streaming pour l’ingéstion événementielle.

Gérer l’ingéstion multi-sources complexe : APIs REST/GraphQL, bases relationnelles (CDC), fichiers plats.

Pyl.tech
Pyl.tech

Interested in this job?

Questions and answers about the job

The position

Job description

Construction de Pipelines Data :

  • Développer des pipelines batch robustes avec Apache Beam / Dataflow pour traiter des volumes de données massifs (TB+)

  • Concevoir des pipelines de streaming temps réel avec Pub/Sub et Dataflow Streaming pour l’ingéstion événementielle

  • Gérer l’ingéstion multi-sources complexe : APIs REST/GraphQL, bases relationnelles (CDC), fichiers plats, données semi-structurées (JSON, Avro, Parquet)

  • Orchestrer les workflows de données avec Cloud Composer (Airflow) : dépendances, retry policies, alerting et SLA monitoring

  • Implémenter les stratégies de gestion d’erreurs : dead letter queues, idempotence et exactly-once processing

    Architecture & Modélisation :

  • Designer le Data Warehouse BigQuery avec une architecture en couches (raw, staging, curated, serving) selon les bonnes pratiques

  • Appliquer la modélisation dimensionnelle (étoile/flocon) et les techniques de Slowly Changing Dimensions (SCD Type 1/2/3)

  • Optimiser les performances BigQuery : Partitioning (time/range), Clustering, materialized views et BI Engine

  • Concevoir le Data Lake sur Cloud Storage avec une convention de nommage et un cycle de vie adapté (Nearline, Coldline, Archive)

    Qualité & Gouvernance :

  • Mettre en place la Data Quality avec dbt tests, Great Expectations et contrôles de cohérence inter-tables

  • Implémenter le catalogage des données avec Dataplex : discovery, classification automatique et tagging métier

  • Assurer la traçabilité complète des données (lineage) avec Data Catalog et les metadata BigQuery

  • Définir et appliquer les politiques de Data Masking et de contrôle d’accès au niveau colonne (column-level security)

    Industrialisation & DevOps Data :

  • Industrialiser les déploiements avec CI/CD pour la Data : tests unitaires dbt, validation de schémas et promotion d’environnements

  • Provisionner l’infrastructure Data via Terraform : datasets BigQuery, topics Pub/Sub, buckets et DAGs Composer

  • Documenter les pipelines, les modèles de données et les runbooks opérationnels pour assurer la maintenabilité


Preferred experience

  • Formation : Titulaire d’un diplôme Bac+5 en Informatique ou Data Science.

  • Expérience : Fort(e) d’une expérience de 2 à 4 ans en Data Engineering avec un focus sur BigQuery.

Vos compétences

Techniques (“Hard skills”) :

  • Expert SQL avec requêtes complexes et optimisation

  • Bonne maîtrise Python pour scripting et transformations

  • Expérience BigQuery, Dataflow, Pub/Sub, Cloud Storage

  • Connaissance Airflow, dbt, Terraform

    Comportementales (“Soft skills”) :

  • Rigueur et sens de la qualité des données

  • Autonomie et capacité à travailler en équipe

  • Curiosité pour les services managés GCP


Recruitment process

  1. Échange RH (visio) – Un premier échange avec un membre de l’équipe de recrutement, consacré à la découverte de votre parcours, de vos aspirations professionnelles et de votre potentiel d’évolution au sein de Pyl.Tech.

  2. Entretien technique (visio) – Une rencontre approfondie avec le manager de l’équipe concernée, visant à évaluer l’adéquation entre votre expertise technique, vos qualités humaines et les exigences du poste.

  3. Entretien final avec un co-fondateur (visio ou présentiel) – Un échange privilégié avec l’un des fondateurs de Pyl.Tech, l’occasion de partager la vision de l’entreprise, de répondre à vos dernières interrogations et de confirmer votre projection à long terme.

Ce que Pyl.Tech vous offre

  • De solides perspectives d’évolution : Un plan de carrière clair avec des formations ciblées et des certifications professionnelles (Google Cloud, Gemini, etc.) pour accélérer votre développement professionnel.

  • Un cadre de travail flexible et stimulant : Télétravail, culture d’entreprise basée sur la confiance, l’entraide et l’innovation.

  • Des projets à fort impact : Contribuez à des projets mobilisant les technologies les plus innovantes (IA Générative Gemini, Cloud souverain, Data, Digital Workplace) au service de clients grands comptes et d’ETI ambitieuses.

  • Un écosystème Google unique : En tant que pure player Google, bénéficiez d’un accès privilégié aux dernières technologies, aux formations partenaires et à une communauté d’experts passionnés où chaque expertise est valorisée.

Want to know more?

These job openings might interest you!

These companies are also recruiting for the position of “Data / Business Intelligence”.

See all job openings