Notre équipe Data Foundation basée à Bordeaux/Cestas, recherche son/sa futur(e) Data Engineer expérimenté(e) H/F en CDI.
Missions :
A ce titre, vous serez amené(e) à :
Concevoir et faire évoluer les modèles de données métiers et techniques,
Conseiller et épauler les membres de l’équipe sur les bonnes pratiques liées à la modélisation de données,
Participer aux études et phases exploratoires des projets Data,
Réaliser en équipe la conception et l’implémentation des Data Products en gardant un haut niveau de qualité,
Livrer régulièrement de la valeur en production et mettre en œuvre les outils nécessaires à la supervision et la qualité des données et traitements,
Maintenir les Data Products livrés, la plateforme Datahub et son écosystème (collecte et exposition des données)
Participer à l’amélioration continue de l’équipe (pratiques de développement, organisation d’équipe, montée en compétence, formations internes etc)
Garantir la sécurité, la scalabilité des solutions et l'expérience client la plus optimale
Description du profil :
Profil recherché :
Issu(e) d’un BAC + 5 avec une spécialité en développement logiciel ou équivalent, vous avez une expérience de minimum 5 ans en tant qu’Ingénieur Data, et significative dans la modélisation de donnée. *
Vous savez modéliser et structurer la donnée (relationnel, dimensionnel ou document) pour la rendre facilement exploitable et maintenable.
Vous recherchez le sens et la valeur des fonctionnalités qui vous sont demandées,
Vous aimez développer en suivant les bonnes pratiques dans un environnement en intégration continue,
Vous connaissez au moins un de ces composants des Data Platforms modernes (Snowflake, DBT, Azure Datalake, Apache Spark, Apache Kafka, …) et maîtrisez un langage de développement (Kotlin, Python, Java ou Scala) en sus d’une connaissance approfondie en SQL,
Vous êtes sensible aux problématiques de qualité (de la donnée et des livrables), tests et Architecture As Code.
Vous êtes ouvert(e) à l’agilité et au travail en équipe.
Environnement technique:
Linux ou Windows (administrateur du poste)
Snowflake, DBT, Apache Spark, Azure Datalake, Apache Kafka, RabbitMQ
SQL, Kotlin, Python, Java, Scala
Cloud : Microsoft Azure, Docker, Kubernetes
Outillage : Git, Jenkins
Méthodologie : Agile (Scrum avec Squad), pair/mob programming, code review.
Ce que l’on propose chez Lectra ?
Le poste est basé à Cestas (23 chemin de Marticot) - pour nous rejoindre :
Rencontrez Chloé, Software Engineer
Rencontrez Quentin, Mechatronics Architect (R&D Equipement)
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.