Tech Lead Data H/F

Résumé du poste
CDI
Montrouge
Télétravail fréquent
Salaire : Non spécifié
Expérience : > 5 ans
Compétences & expertises
Outils d'automatisation
GitLab CI
Kubernetes
Terraform
Snowflake
+4
Postuler

Groupe Crédit Agricole
Groupe Crédit Agricole

Cette offre vous tente ?

Postuler
Questions et réponses sur l'offre

Le poste

Descriptif du poste

L’Entreprise CAL&F et la Direction des Systèmes d’Information et de la Digitalisation (DSID)
🚀 Au sein de CAL&F, vous rejoindrez les 130 collaborateurs passionnés de la DSID qui travaillent ensemble à un plan de transformation de l’IT pour digitaliser notre organisation et les services que nous offrons. Dès 3 ans, nous offrons des opportunités de mobilité, au sein de la DSID ou du groupe Crédit Agricole.
🌟 Nous croyons en la force du collectif, chaque jour rassemblés autour de nos valeurs, de simplicité, d'optimisme et d'engagement, encourageant chacun à oser, essayer, accepter d'échouer et rebondir.

🎯  Si vous aussi vous souhaitez évoluer dans un environnement stimulant et bienveillant, vous sentir utile au quotidien, renforcer votre expertise et ouvrir le champ des possibles, nous sommes faits pour nous rencontrer !

🎯 Afin d’accompagner et de contribuer à la réalisation des ambitions de développement de Crédit Agricole Leasing et Factoring (CAL&F) et de modernisation de nos systèmes d’information au service des clients et du Groupe Crédit Agricole, la Direction des Systèmes d’Information et de la Digitalisation (DSID) recherche un(e) Tech Lead Data.

Le Data Tech Lead est le référent technique de la Data Factory.

Il conçoit, industrialise et optimise les solutions data de l’entreprise, encadre techniquement les data engineers et garantit la qualité, la performance et la maintenabilité des produits livrés.

Il joue un rôle clé dans la transformation data, notamment dans le cadre de la migration des usages historiques (SAS, traitements batch) vers des solutions cloud et modernes.

 

🚀 Vos missions principales sont les suivantes :

1.Pilotage technique

·       Définir et faire respecter les bonnes pratiques de développement, de versioning et d’industrialisation des flux data.

·       Réaliser les revues de code, assurer la cohérence et la robustesse technique des traitements.

·       Participer à la conception des architectures cibles en lien avec les architectes data et les équipes DSI.

·       Contribuer à l’amélioration continue des performances et de la stabilité des pipelines.

 

2. Conception et industrialisation

·       Concevoir, développer et maintenir des pipelines de collecte, de transformation et de diffusion des données (ETL/ELT).

·       Mettre en œuvre les solutions d’orchestration et d’automatisation .

·       Participer à la migration des flux SAS vers des solutions cloud modernes (ex. Snowflake).

·       Veiller à la documentation, à la supervision et au monitoring des traitements.

 

3. Encadrement et accompagnement

·       Accompagner techniquement les data engineers dans leurs développements et leur montée en compétence.

·       Promouvoir les bonnes pratiques DataOps (CI/CD, tests, observabilité, monitoring).

·       Faciliter les échanges entre les équipes Data, Architecture, Sécurité et Métier.

 

 

 

 

 


Profil recherché

🎓 Vous êtes diplômé(e) d’un Master en informatique, d’une école d'Ingénieur en informatique ou un équivalent universitaire. Chez CAL&F, nous recherchons avant tout des compétences. Vous ne disposez pas du diplôme requis mais avez des expériences équivalentes ? N'hésitez pas à postuler !


 

 Architecture & bonnes pratiques

·       Gestion d'architecture data moderne (Data Lakehouse, Data Mesh, ELT cloud etc.)

·       Gestion de la performance et optimisation des flux

·       Gestion de la sécurité, gouvernance et qualité des données

·       Supervision et observabilité (logs, alertes, métriques)

 

Soft skills

·       Leadership technique et goût du collectif

·       Capacité à vulgariser et à collaborer avec des profils non techniques

·       Esprit d’analyse, rigueur et pragmatisme

·       Curiosité et veille technologique active


Langages et outils

·      Python, SQL sont un prérequis pour le poste

·       Data platform : GCP, Snowflake (bonne connaissance appréciée)

·       ETL/ELT : XDI (un plus apprécié)

·       CI/CD & Infra : GitLab CI, Docker, Terraform, Kubernetes


Anglais professionnel

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Développement de logiciels et de sites Web”.

Voir toutes les offres
Postuler