Cette offre n’est plus disponible.

Java / Big data / Data Engineer (H/F)

CDI
Paris
Télétravail occasionnel
Salaire : ≥ 50K €
Début : 22 mars 2026
Expérience : > 5 ans

Meedz
Meedz

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

Tu interviens au sein d’une tribu en charge de la chaîne informatique des risques opérationnels liée aux opérations de marché des activités de trading d’une grande banque d’investissement. Cette chaîne intègre notamment les contrôles antifraude de première ligne de défense.

Dans un contexte de transformation de la plateforme, l’objectif est d’exploiter pleinement les technologies Big Data et un datalake Microsoft Azure afin d’industrialiser les traitements de données et d’offrir davantage d’autonomie aux utilisateurs métiers.

Dans ce cadre, nous recherchons un Data Engineer capable de contribuer à la conception et au développement des traitements de données au sein de cet environnement Big Data.

Au sein de l’équipe, tu participes activement à la mise en œuvre et à l’évolution de la plateforme data :

  • Contribuer à l’architecture technique Big Data sur Azure (Spark, HDInsight / Azure Storage, Livy)

  • Participer à l’implémentation de nouvelles données et de nouveaux traitements dans le datalake Microsoft Azure

  • Élaborer le planning de développement

  • Développer les pipelines de données et les traitements sur le datalake

  • Réaliser les tests, déploiements et mises en production

  • Présenter les avancées via démos régulières aux équipes

Environnement technique

  • Langages / Data : Java, Big Data, Spark

  • Cloud / Data Platform : Microsoft Azure, HDInsight, Azure Storage

  • Orchestration / DevOps : Airflow, Kubernetes

  • Frameworks : Spring (Java)


Profil recherché

Tu disposes d’une expérience solide en développement et d’une appétence forte pour les environnements data.

  • 5 ans minimum d’expérience en Java

  • 2 ans minimum d’expérience avec Spark

  • Expérience avec un cloud provider (Azure idéalement)

  • Connaissance de Kubernetes

  • Bonne compréhension des problématiques Big Data / Data Engineering


Déroulement des entretiens

  1. Une visio de maximum 30 minutes avec Laury, pour savoir qui tu es et ce que tu souhaites faire

  2. Un échange avec Julien qui te présente la mission, le client, la culture,

  3. Op, c’est parti 🚀

(Le poste est ouvert exclusivement en CDI / 2jours de TT par semaine )

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres