Data Engineer

Résumé du poste
CDI
Paris
Salaire : Non spécifié
Télétravail non autorisé
Compétences & expertises
Recherche et analyse de données
Activités récréatives
Compréhension des architectures réseau
Kubernetes
Git
+9
Postuler

EY
EY

Cette offre vous tente ?

Postuler
Questions et réponses sur l'offre

Le poste

Descriptif du poste

Tu rejoindra notre team Data ! Tu participeras à la réalisation de solutions, en collaboration étroite avec des machine learning engineer, software architect, designers, developers…


Force de proposition en interne, tu interviendras pour être garant du développement d’architecture Data, de la collecte multi-source de données, du pilotage et de la pertinence de ces dernières.?Tu viendras compléter l’offre par tes connaissances techniques


Activités principales :


Compréhension des conceptions d’architecture data et des systèmes distribués

Conception et modélisation des pipelines de données en assurant un stockage et une interrogation efficace

Développement des traitements de données et de leur exploitation

Maîtrise l’ensemble des techniques, technologies et concepts utilisés

Responsable de la qualité technique sur le périmètre confié

Contribuer à la CI/CD avec TechLead et Ops

Accompagnement des juniors dans leur montée en compétence (pair programming, présentation sur des sujets techs, management…)

Tu auras la chance d’arriver à un moment charnière pour les équipes Datas, tu pourras ainsi participer aux différents changements qui s’opérent et batir avec eux le nouveau socle Data de Fabernovel en s’appropriant des nouveaux sujets : Datawarehouse, Big Data … Chez Fabernovel nous sommes des chimistes, nous experimentons et créons !


Profil recherché

Nous recherchons avant tout une personne avec des compétences en développement logiciel ayant au moins 7 ans d’expérience et qui a un attrait pour les problématiques data.




Notre futur talent est :


En plus de tes compétences techniques, nous recherchons une personne curieuse, bienveillante, qui soit autonome et force de proposition.


Tu as un bon niveau en programmation fonctionnelle (ex : Scala, Rust)

Tu as déjà collaboré en workflows Git (One flow, Trunk based)

Tu es expert en base données SQL / NoSQL

Tu maitrise les systèmes et calcul distribués

Tu as une expérience significative sur plusieurs projets de stream processing sur une ou plusieurs des technos suivantes : Akka, Kafka, Spark

Tu as déjà travaillé sur un Cloud Provider: AWS, GCP, Azure, IBM

Bonus : tu connais l’untilisation de Kubernetes, Docker ou Airflow.

Tu sais communiquer de façon claire et précise et fait preuve d’un esprit de synthèse.

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres
Postuler