Tu rejoindra notre team Data ! Tu participeras à la réalisation de solutions, en collaboration étroite avec des machine learning engineer, software architect, designers, developers…
Force de proposition en interne, tu interviendras pour être garant du développement d’architecture Data, de la collecte multi-source de données, du pilotage et de la pertinence de ces dernières.?Tu viendras compléter l’offre par tes connaissances techniques
Activités principales :
Compréhension des conceptions d’architecture data et des systèmes distribués
Conception et modélisation des pipelines de données en assurant un stockage et une interrogation efficace
Développement des traitements de données et de leur exploitation
Maîtrise l’ensemble des techniques, technologies et concepts utilisés
Responsable de la qualité technique sur le périmètre confié
Contribuer à la CI/CD avec TechLead et Ops
Accompagnement des juniors dans leur montée en compétence (pair programming, présentation sur des sujets techs, management…)
Tu auras la chance d’arriver à un moment charnière pour les équipes Datas, tu pourras ainsi participer aux différents changements qui s’opérent et batir avec eux le nouveau socle Data de Fabernovel en s’appropriant des nouveaux sujets : Datawarehouse, Big Data … Chez Fabernovel nous sommes des chimistes, nous experimentons et créons !
Nous recherchons avant tout une personne avec des compétences en développement logiciel ayant au moins 7 ans d’expérience et qui a un attrait pour les problématiques data.
Notre futur talent est :
En plus de tes compétences techniques, nous recherchons une personne curieuse, bienveillante, qui soit autonome et force de proposition.
Tu as un bon niveau en programmation fonctionnelle (ex : Scala, Rust)
Tu as déjà collaboré en workflows Git (One flow, Trunk based)
Tu es expert en base données SQL / NoSQL
Tu maitrise les systèmes et calcul distribués
Tu as une expérience significative sur plusieurs projets de stream processing sur une ou plusieurs des technos suivantes : Akka, Kafka, Spark
Tu as déjà travaillé sur un Cloud Provider: AWS, GCP, Azure, IBM
Bonus : tu connais l’untilisation de Kubernetes, Docker ou Airflow.
Tu sais communiquer de façon claire et précise et fait preuve d’un esprit de synthèse.
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.
Voir toutes les offres