Architecte Big Data (H/F)

Résumé du poste
CDI
Sannerville
Télétravail fréquent
Salaire : 60K à 70K €
Expérience : > 5 ans
Éducation : Bac +3
Compétences & expertises
Communication
Créativité et innovation
Principes DevOps
Collaboration et travail d'équipe
Mécanique
+11
Postuler

La Sécurité Sociale
La Sécurité Sociale

Cette offre vous tente ?

Postuler
Questions et réponses sur l'offre

Le poste

Descriptif du poste

Vous intégrerez une équipe d'ingénieurs et d'experts dans les domaines du Big Data et de la Data Science (chefs de projets, référents fonctionnels, business analysts, data analysts, data engineers).

Votre rôle :

En tant qu'Architecte Big Data, vous êtes le garant de la vision globale et de la cohérence de notre architecture data.

Pour y parvenir, voici les missions qui vous seront confiées :

  • Définir et faire évoluer l'architecture Big Data (on premise et Cloud), en cohérence avec la stratégie SI et les besoins métiers
  • Conseiller et accompagner les équipes projets dans le choix des architectures et solutions techniques
  • Concevoir les solutions d'intégration, d'industrialisation et de valorisation des données (analytique, décisionnel, temps réel, machine learning).
  • Contribuer à la stratégie de transformation vers une Data Fabrique moderne sur OpenShift (Airflow, PySpark on Kubernetes, Apache Iceberg, Dremio/Trino, S3).
  • Superviser l'évolution de l'infrastructure Big Data et proposer des améliorations pour garantir performance et scalabilité
  • Définir et promouvoir les bonnes pratiques DevOps Big Data et assurer la cohérence technique des projets
  • Rédiger les documents d'architecture technique (DAT, DU)
  • Assurer une veille technologique active et être force de proposition sur les nouvelles approches et solutions Big Data


Profil recherché

Vous êtes issu·e d'une formation supérieure en informatique (idéalement Bac +5) et justifiez d'une expérience confirmée en architecture Big Data.

Vous aimez travailler en équipe dans un environnement collaboratif mêlant profils métiers et techniques. Vous avez de fortes aptitudes relationnelles : écoute, analyse, synthèse, convaincre.
Organisé·e et rigoureux·se, vous faites preuve de curiosité et appréciez être challengé·e pour trouver des solutions innovantes.

Compétences techniques :

  • Bonne compréhension des architectures distribuées, des modèles Data Lake / Data Warehouse, et des solutions associées (Hadoop, S3, moteurs SQL distribués type Trino/Dremio, etc.).
  • Solide culture technique sur les langages et outils Big Data (SQL, Python, PySpark, Airflow, DBT…), avec une approche orientée conception et architecture.
  • Connaissances des bonnes pratiques DevOps appliquées au Big Data et des outils d'intégration continue (Git, Jenkins, SonarQube).
  • Connaissance des concepts NoSQL

Envie d’en savoir plus ?

Postuler