Missions Principales :
• Piloter la migration progressive des composants de données vers GCP en utilisant Gitlab, GKE et Gravitee.
• Identifier et concevoir les différents impacts des interfaces et échanges de données.
• Rédiger des spécifications techniques pour la mise en œuvre des flux et prendre en charge certains sous Stambia et/ou Node JS.
• Structurer les différents impacts et suivre l’avancement des développements associés.
• Anticiper les besoins en data et développer des compétences de conception et de modélisation de données structurées.
• Participer à la Maintenance en Conditions Opérationnelles (MCO) d’un périmètre applicatif existant.
Expérience :
• Formation supérieure en informatique (Bac + 5).
• 5 à 10 ans d’expérience dans le domaine de la data (Product Owner, Chef de Projet, Data Engineer ou Data Scientist).
• Bonnes connaissances du cloud Google GCP (GKE, VPC, etc.).
• Bonnes connaissances des environnements techniques SQL, Sambia, API, Node JS et Gravitee.
• Maîtrise des différents concepts d’interfaçage (Flux, API, synchrone, asynchrone, événementiel, etc.).
Un premier entretien Rh suivi des tests techniques
Ces entreprises recrutent aussi au poste de “Gestion de projets”.