Cette offre n’est plus disponible.

Tech Lead Data Engineer F/H

CDI
Croix
Salaire : Non spécifié
Début : 14 octobre 2021
Télétravail fréquent
Expérience : < 6 mois
Éducation : Bac +5 / Master

Oney
Oney

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

Poste et missions

Etre Tech Lead Data Engineer F/H chez Oney, pourquoi c'est mieux ?

Plus qu'un poste...une mission pour vous ! Et quelle mission !

Leader indispensable sur les technologies du Big Data, votre challenge est d'assurer la maîtrise de la donnée et d'être garant de la qualité de son utilisation (référencement, normalisation et qualification) afin d'en faciliter l'exploitation par les équipes.

Voici vos principales missions :

  • Créer et gérer l'infrastructure et les outils Big Data d'Oney France en relation avec nos prestataires de services, en surveiller les performances et conseiller les modifications d'infrastructure nécessaires.
  • Travailler sur la collecte, le stockage, le traitement et l'analyse de volumes importants de données. Proposer des solutions optimales (en accord avec les normes / réglementations), les maintenir et les intégrer à l'architecture implémentée par Oney.

  • Travailler en étroite collaboration avec l'équipe de Data Scientist (consolider / optimiser leurs algorithmes).

  • Gérer le backlog (projets, évolution, maintenance) de la plate-forme et être un acteur majeur dans la définition et la mise en œuvre de la roadmap.

  • Réaliser la veille, la promotion et la formation permettant la montée en compétence des équipes IT et métier.


Profil recherché

Ce qui nous plaira le plus chez vous, c'est vous-même ! Alors bien évidemment on vous préférera ouvert, force de proposition, capable de challenger vos interlocuteurs et doté d'une vraie capacité d'analyse et de synthèse, car c'est ce qui vous permettra de mener au mieux votre mission.

Dans votre bagage, on aimerait trouver une expérience d'au moins 4 ans dans l'intégration de données provenant de plusieurs sources de données (Connaissance de diverses techniques et frameworks ETL ou ELT) et dans la création de systèmes de traitement de flux en utilisant des solutions telles que Storm ou Spark-Streaming, une bonne compréhension des principes de l'informatique distribuée, des outils Big Data (type Python, Apache Spark) et de gestion du cluster du type Snowflake (ou autres bases de données NoSQL) ainsi qu'une bonne connaissance de l'écosystème Databricks dans un environnement Azure Cloud. Si vous êtes à l'aise dans la langue de Shakespeare, ce sera un vrai plus.

Envie d’en savoir plus ?