Data Engineer GCP & Big Data

Rejoignez notre équipe en tant que Data Engineer GCP & Big Data. Vous serez responsable de la construction de pipelines de données robustes, de la conception de l'architecture et de la modélisation, de la mise en place de la qualité et de la gouvernance des données, ainsi que de l'industrialisation et du DevOps Data. Vous devez avoir une expérience de 2 à 4 ans en Data Engineering avec un focus sur BigQuery, ainsi qu'une maîtrise de SQL et Python.

jobs.show.blocks.metaData.summary.generated

Plný úvazek
Paris
Několik dní doma
Plat: Neuvedeno
zkušenosti: > 2 roky
Vzdělání: Magisterský stupeň vzdělání
jobs.show.blocks.metaData.subtitle.key_missions

Développer des pipelines batch robustes avec Apache Beam / Dataflow pour traiter des volumes de données massifs.

Concevoir des pipelines de streaming temps réel avec Pub/Sub et Dataflow Streaming pour l’ingéstion événementielle.

Gérer l’ingéstion multi-sources complexe : APIs REST/GraphQL, bases relationnelles (CDC), fichiers plats.

Pyl.tech
Pyl.tech

Máte zájem o tuto nabídku?

Otázky a odpovědi ohledně nabídky

Pozice

Popis pozice

Construction de Pipelines Data :

  • Développer des pipelines batch robustes avec Apache Beam / Dataflow pour traiter des volumes de données massifs (TB+)

  • Concevoir des pipelines de streaming temps réel avec Pub/Sub et Dataflow Streaming pour l’ingéstion événementielle

  • Gérer l’ingéstion multi-sources complexe : APIs REST/GraphQL, bases relationnelles (CDC), fichiers plats, données semi-structurées (JSON, Avro, Parquet)

  • Orchestrer les workflows de données avec Cloud Composer (Airflow) : dépendances, retry policies, alerting et SLA monitoring

  • Implémenter les stratégies de gestion d’erreurs : dead letter queues, idempotence et exactly-once processing

    Architecture & Modélisation :

  • Designer le Data Warehouse BigQuery avec une architecture en couches (raw, staging, curated, serving) selon les bonnes pratiques

  • Appliquer la modélisation dimensionnelle (étoile/flocon) et les techniques de Slowly Changing Dimensions (SCD Type 1/2/3)

  • Optimiser les performances BigQuery : Partitioning (time/range), Clustering, materialized views et BI Engine

  • Concevoir le Data Lake sur Cloud Storage avec une convention de nommage et un cycle de vie adapté (Nearline, Coldline, Archive)

    Qualité & Gouvernance :

  • Mettre en place la Data Quality avec dbt tests, Great Expectations et contrôles de cohérence inter-tables

  • Implémenter le catalogage des données avec Dataplex : discovery, classification automatique et tagging métier

  • Assurer la traçabilité complète des données (lineage) avec Data Catalog et les metadata BigQuery

  • Définir et appliquer les politiques de Data Masking et de contrôle d’accès au niveau colonne (column-level security)

    Industrialisation & DevOps Data :

  • Industrialiser les déploiements avec CI/CD pour la Data : tests unitaires dbt, validation de schémas et promotion d’environnements

  • Provisionner l’infrastructure Data via Terraform : datasets BigQuery, topics Pub/Sub, buckets et DAGs Composer

  • Documenter les pipelines, les modèles de données et les runbooks opérationnels pour assurer la maintenabilité


Požadavky na pozici

  • Formation : Titulaire d’un diplôme Bac+5 en Informatique ou Data Science.

  • Expérience : Fort(e) d’une expérience de 2 à 4 ans en Data Engineering avec un focus sur BigQuery.

Vos compétences

Techniques (“Hard skills”) :

  • Expert SQL avec requêtes complexes et optimisation

  • Bonne maîtrise Python pour scripting et transformations

  • Expérience BigQuery, Dataflow, Pub/Sub, Cloud Storage

  • Connaissance Airflow, dbt, Terraform

    Comportementales (“Soft skills”) :

  • Rigueur et sens de la qualité des données

  • Autonomie et capacité à travailler en équipe

  • Curiosité pour les services managés GCP


Proces náboru

  1. Échange RH (visio) – Un premier échange avec un membre de l’équipe de recrutement, consacré à la découverte de votre parcours, de vos aspirations professionnelles et de votre potentiel d’évolution au sein de Pyl.Tech.

  2. Entretien technique (visio) – Une rencontre approfondie avec le manager de l’équipe concernée, visant à évaluer l’adéquation entre votre expertise technique, vos qualités humaines et les exigences du poste.

  3. Entretien final avec un co-fondateur (visio ou présentiel) – Un échange privilégié avec l’un des fondateurs de Pyl.Tech, l’occasion de partager la vision de l’entreprise, de répondre à vos dernières interrogations et de confirmer votre projection à long terme.

Ce que Pyl.Tech vous offre

  • De solides perspectives d’évolution : Un plan de carrière clair avec des formations ciblées et des certifications professionnelles (Google Cloud, Gemini, etc.) pour accélérer votre développement professionnel.

  • Un cadre de travail flexible et stimulant : Télétravail, culture d’entreprise basée sur la confiance, l’entraide et l’innovation.

  • Des projets à fort impact : Contribuez à des projets mobilisant les technologies les plus innovantes (IA Générative Gemini, Cloud souverain, Data, Digital Workplace) au service de clients grands comptes et d’ETI ambitieuses.

  • Un écosystème Google unique : En tant que pure player Google, bénéficiez d’un accès privilégié aux dernières technologies, aux formations partenaires et à une communauté d’experts passionnés où chaque expertise est valorisée.

Chcete se dozvědět více?

Tato volná pracovní místa by vás mohla zajímat!

Tyto společnosti rovněž nabírají pracovníky na pozici "{profese}".

Podívat se na všechny nabídky