Cette offre n’est plus disponible.

Tech lead data engineer finance et risques F/H

CDI
Saint-Priest-la-Prugne
Salaire : Non spécifié
Télétravail fréquent
Expérience : > 5 ans
Éducation : Bac +5 / Master

Bpifrance.io
Bpifrance.io

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

Vous serez rattaché directement à l’architecte de la direction Data&IA et interviendrez opérationnellement en tant que Tech Lead Data au sein de l’équipe Agile responsable du développement des Data Pipelines du domaine métier Finance et Risques.

Rejoignez les équipes du Train Data & IA et contribuez à la transformation Data Centric de BPIFRANCE.

Au sein de la plateforme Cloud AWS, nous bâtissons une architecture Data composée de comptoirs de données et de Micro-Services accélérant la valorisation de la donnée pour nos clients.

En tant que Tech Lead, votre rôle sera :

  • D’analyser les contraintes et les besoins avec le Product Owner
  • De développer le pipeline de données du comptoir Finance et Risques
  • D’accompagner les Data Engineers de la team dans la réalisation technique
  • De prendre en charge et garantir la cohérence de la conception technique en alignement avec les principes d’architecture et de développement
  • De garantir la sécurité des données
  • D’identifier la dette technique et proposer une trajectoire de résorption
  • D’assurer la conformité avec les normes et la qualité des réalisations
  • De proposer et d’accompagner la mise en œuvre de nouvelles pratiques de développement et outils.
  • De participer à l’animation de la communauté des tech lead.

Vous serez en interaction avec les architectes, Tech Lead et Data Designer du train


Profil recherché

Nous recherchons un profil technique, formé en école d’ingénieur ou équivalent (Bac+4 / Bac+ 5) ayant au minimum 7 années d’expériences dans des projets techniques data.

Notre environnement technique :

  • Amazon Web Services (S3, Lambda, Glue, Redshift, Athena, API gateway,..)
  • Postgre, Atlas DB, ElasticSearch
  • Infrastructure as a code (Terraform)
  • Python, Spark, Airflow
  • Kafka (Confluence)

Compétences techniques recherchées :

  • Développement de Pipelines de données et d’architectures Lambda
  • Expert en langages Python, Spark (Pyspark) et SQL, Java serait un plus
  • Méthodes d’analyse et de modélisation de données
  • Maitrise des bases de données transactionnelles et décisionnelles (RDS, Redshift)
  • Réalisations d’API (consommation et exposition)
  • Streaming de données
  • Bonnes pratiques DevOps
  • Certification AWS Solutions Architect Professional

Savoir être :

  • Bon communiquant
  • Esprit d’équipe et travail collaboratif
  • Curiosité et esprit d’innovation
  • Mindset agile

Bon niveau d’Anglais

Ce poste est à pourvoir au siège à Maisons-Alfort et/ou sur toute la France


Déroulement des entretiens

  • Test Technique
  • Entretien RH
  • Entretien opérationnel
  • Entretien Codir

Envie d’en savoir plus ?