Data Engineer (H-F) - Lyon
Cette offre a été pourvue !
Qui sont-ils ?
evoteo est une entreprise de prestation spécialisée en #DATA.
L’évolution des structures, établies depuis plusieurs années, voire plusieurs décennies, est en marche et evoteo accompagne ses partenaires pour y faire face.
Les équipes d’evoteo sont composées d’ingénieurs, de chefs de projets et de transformations managers tous passionnés par ce changement technologique.
La réussite de l’entreprise repose sur un management de carrière simple et efficace de ses collaborateurs dont les axes principaux sont :
- L’évolution
- La curiosité
- L’exigence
- La collaboration
Rencontrez Théodore, CEO & Founder
Descriptif du poste
Dans le cadre de notre expansion ambitieuse mais contrôlée, et pour satisfaire aux besoins changeants de tous nos clients, nous recherchons une/un Data Engineer pour renforcer nos équipes.
Mission
Dans le cadre du projet de migration de notre client, de leur ancien système BI vers leur nouvel écosystème Lakehouse (Discover) sur Databricks / AWS, nous sommes à la recherche d’une personne qui peut gérer :
La récupération (et surtout la refonte) de leur modèle de données pour qu’il soit la base de leurs futurs cas d’utilisation des données (refonte des procédures SQL Server de Side vers des travaux Databricks en Python / SQL / Spark).
La migration des tableaux de bord PowerBI ainsi que la refonte de leur modèle pour les simplifier, en les source sur le Lakehouse au lieu de Side.
La refonte des rapports SSRS vers des tableaux de bord Databricks pour les rapports opérationnels.
La récupération des exports (principalement des fichiers CSV) gérés par Side aujourd’hui.
La durée de ce projet devrait s’étaler sur 2023-2024.
Profil recherché
Nous recherchons avant tout des personnalités : curieuses, habiles, sociales, adaptables et passionnées.
De formation BAC+5 (Master 2,DESS,DEA), formation ingénieure ou informatique, tu as une expérience d’au moins 2 ans en engineering des environnements Big #DATA
Les technos:
- Développement : Spark (scala), Python
- Intégration continue : GIT, Maven, Jenkins, Ansible, Docker
- Technologies Big #DATA (Hadoop, Yarn, Pig, Hive, Sqoop, Flume, Impala, Spark, ElasticSearch)
- Cloud AWS : S3, Glue, ECS
- Cloud Azure
Nous insistons sur les compétences Spark.
Ce poste en CDI est à pourvoir dès que possible sur la région lyonnaise.
Tu êtes un futur collaborateur acteur, en quête de perspectives d’évolution, capable de rigueur et d’esprit d’analyse ? Rejoins-nous !
Déroulement des entretiens
Comme évoqué, nous aimons les choses simples - envois-nous ta page Linkedin ou bien un CV, ensuite nous te proposerons:
- Un échange téléphonique permettant de cibler au mieux tes souhaits
- Un entretien de découverte mutuelle afin de savoir si nous avons envie de travailler ensemble
- Tu reviens vers nous si tu es intéressé pour un dernier échange avec le PDG afin de partager la vison, parler de te carrière et valider ta candidature.