Alternance - Data Engineer Spark & Cloud F/H

Alternance
Paris
Télétravail non autorisé
Salaire : Non spécifié
Expérience : < 6 mois
Éducation : Bac +5 / Master
Postuler

Groupe BPCE
Groupe BPCE

Cette offre vous tente ?

Postuler
Questions et réponses sur l'offre

Le poste

Descriptif du poste

Poste et missions

Rejoignez BPCE en tant que Data Engineer Spark & Cloud pour une alternance à partir de Septembre 2026 !

Vous intégrez la Direction Technologies & Opérations et plus particulièrement l'équipe D&R/Assets et projets data : une équipe data dynamique en croissance, responsable de la collecte, du traitement et de l'analyse de grandes volumes de données.

Vous aurez pour rôle de :

Participer à la conception et à la mise en œuvre de solutions data cloud-native et on-premise, en collaboration avec les Data Engineers et les équipes IT.

Vous aurez à prendre en charge une partie des développements sur des projets Data de l'équipe.

Concrètement votre quotidien ?

En collaboration avec votre tuteur (profil tech lead), vous évoluerez sur les missions suivantes :

- Concevoir, développer et maintenir des flux de données (ETL/ELT) utilisant Spark (PySpark/Scala) pour le traitement de données en batch et en streaming.

- Travailler avec Hadoop (HDFS, MapReduce, YARN) et les écosystèmes associés (Hive, HBase, Pig) pour l'ingestion, le stockage et l'interrogation des données.

- Intégrer et orchestrer les pipelines de données sur Google Cloud Platform (GCP): BigQuery, Dataflow, Dataproc, Cloud Storage, Pub/Sub, IAM/Security.

- Participer à la modélisation et à l'optimisation du schéma de données (OLAP/OLTP) et à la gestion des métadonnées (catalogue, lineage).

- Garantir la qualité des données et la traçabilité (tests unitaires, tests d'intégration, monitoring des pipelines, gestion des exceptions)

- Assurer les aspects sécurité et conformité des données (accès, chiffrement, logs, audit).


Profil recherché

Vous préparez un Master sur 1/2 ans ou êtes en 2ème/ 3ème année de cycle Ingénieur avec une spécialisation Développement / Data.

Idéalement, vous avez déjà acquis une 1ère expérience dans ce domaine en stage / alternance.

Pour réussir votre mission, vous avez acquis ou évoluez sur un environnement technique comme :

- Spark: PySpark ou Spark SQL; notions de performance et tuning.

- Langages : Python (indispensable), Scala serait un plus ; SQL avancé (indispensable).

- Hadoop: HDFS, MapReduce, YARN; expérience avec Hive/Impala est un plus.

- GCP : expérience pratique avec Dataflow/Dataproc, BigQuery, Cloud Storage;

- connaissance des pipelines Ingest/ETL sur GCP.

- Outils : Airflow (ou autre orchestrateur), Git, Jenkins ou équivalent CI/CD, outils de monitoring (Prometheus, Grafana) souhaités.

Vous êtes par ailleurs reconnu pour vos capacités d'analyse et esprit critique.

Enfin, vous possédez un excellent relationnel qui vous permettra de travailler en transverse et d'instaurer des relations de qualité.

Idéalement, vous avez également des notions de sécurité des données, confidentialité et gouvernance.

Saurez-vous relever le challenge ? N'attendez plus, rejoignez-nous !

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres
Postuler