Cette offre n’est plus disponible.

Senior Data Engineer (H/F)

CDI
Paris
Salaire : Non spécifié
Télétravail non autorisé
Expérience : > 5 ans
Éducation : Bac +4

EPSILON France
EPSILON France

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

Dans le cadre du développement de notre pôle Data & Analytics Platform (cadrage fonctionnel et technique, définition de use-cases, stratégie des moyens, accompagnement du changement, mise en œuvre, maintenance et commercialisation de solutions), nous recherchons un(e) Consultant Sénior Data Engineer qui aura pour missions

-      Délivrer des projets Data Lake / Big Data (ingestion de sources, pipeline de traitements de données, modélisation, tests, déploiements) dans un contexte de plus en plus DevOps,

-      Comprendre les besoins des équipes digitales, principalement associées aux projets Data Science et leurs technologies / outils (Jupyter, Zeppelin, R, Python,  …),

-      Être capable de faire le lien avec les contraintes techniques (IT, sécurité, accès, outils) d’une DSI,

-      Assurer la veille technologique sur les composants d’une plateforme Datalake, Cloud

-      Maintenir les environnements techniques et partager ses connaissances (capitalisation, séminaires, formations, KM en ligne),

-      Rédiger des documents projets (design, réalisation, déploiement, …),

-      Gérer l’évolution des solutions proposées, et possiblement en assurer la TMA.

 


Profil recherché

De formation Bac + 4/5 en informatique, vous avez au moins 05 ans d'expérience d’un projet de type Datalake en environnement HDFS et/ou cloud (GCP, Azure), une connaissance des DWH (sur technologie traditionnelle et/ou cloud), des méthodes agiles, voire du DataOps (industrialisation de modèles de ML).

Vous possédez de bonnes compétences en Linux/Unix, Java, Spark, Scala… ainsi que sur les problématiques d’intégration (fichiers, messages, data) avec la connaissance d’au moins une plateforme Big Data Cloudera, Hortonworks (administration, configuration, monitoring, débogage, mise en œuvre) et d’une solution cloud (GCP ou Azure).

Vous connaissez les technologies Hadoop/HDFS, Hive, Python et le requêtage de données (Impala, Hive, ...).

Votre expérience dans le traitement de flux en streaming (KafKa) est un plus.

Votre niveau d’Anglais est opérationnel.

 

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres