DATA ENGINEER (H/F)
Cette offre a été pourvue !
Who are they?
De la définition d’une roadmap digitale au lancement de produits et services innovants, Visian concrétise les ambitions de ses clients en veillant à intégrer durabilité et sobriété numérique. Visian est spécialisé dans l’innovation, le product design et la data. Ses consultants technophiles allient compréhension des enjeux digitaux et vision produit.
Rencontrez Amine, Développeur Data Engineer Python
Job description
Visian, cabinet de conseil spécialisé en Innovation, Design Produit, et Data, recherche pour son client, grand acteur du secteur de l’énergie, un Data Engineer pour rejoindre ses équipes sur un projet innovant.
Contexte: La mission se déroule au sein de l’entité responsable du développement de méthodologies et d’outils d’IA/d’apprentissage automatique pour des solutions intelligentes et basées sur les données qui prennent en charge des modèles commerciaux nouveaux et innovants pour les chaînes de valeur existantes et futures.
L’ingénieur sera responsable de l’expansion et de l’optimisation de l’architecture d’IA, en mettant des modèles d’apprentissage automatique. Il agira en soutien des développeurs de logiciels, architectes de bases de données, Data Analyst, et Data Scientist pour garantir l’architecture de prestation de services d’IA optimale
Missions :
Développer et maintenir un système de traitement de données à grande échelle
Déployer des modèles ML (fournis par des scientifiques des données)
S’assurer que les pipelines ETL construites prendront en charge les flux de données à volume élevé
Détecter les opportunités d’acquisition, de stockage et d’interrogation de données de manière performante
Utiliser une variété de langages et d’outils (sensibilisation aux données opensource apache/ML cadres connexes est une compétence indispensable)
Comprendre, personnaliser et maintenir des projets open source et contribuer au développement de nouveaux cadres
Preferred experience
3 à 5 ans en tant que Data Engineer sur des sujets d’IA
Pratiques des Outils BIG DATA: Hadoop, Spark, Kafka, NoSQL, NiFi, Beam, Zookeeper,etc…
Savoir Construire des pipelines ETL de données évolutifs et tolérants aux pannes basées sur les technologies du Big Data
Expériences en implémentation d’inférences basées sur des modèles d’apprentissage profond avec des frameworks comme Apache MXNet, Tensorflow, Keras etc
Mise en production des modèles ML suite à MLOps
Expériences avec les langages de programmation orientés objet
Compréhension du web sémantique / des Données liées
Approches agiles (SCRUM, SAFE)
Expériences de soutien et de travail avec des équipes interfonctionnelles dans un environnement dynamique
Anglais courant