Cette offre n’est plus disponible.

Data Analyst (H/F)

CDI
Paris
Salaire : Non spécifié
Début : 31 mars 2020
Télétravail non autorisé
Expérience : > 3 ans
Éducation : Bac +4

OZITEM
OZITEM

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

L’objectif du poste de maitrise de l’exploitation en tant que Data Analyst se décline en deux missions rassemblées autour de sujets de digitalisation (Data Lake et RPA).

Le premier objectif permet de garantir l’exploitation des solutions Data Lake sur GCP mises à disposition aux fonctions back office. Cette exploitation se traduit par de la maintenance corrective, la participation à l’évolution des modèles de données mis en place dans Big Query (GCP) et le suivi des évolutions de la demande métier (recueil du besoin) à la mise en production.

Ces actions sont réalisées sur les outils GCP Google Cloud Platform alimentés de données en provenance d’outils de service back Office (Finance, Achats, HR, Juridique,…) ainsi que de toutes les solutions développées autour : rapports de data visualisation (Google DataStudio, Google Sheet,…)

Le deuxième objectif du poste est de maintenir les robots construits sur la technologie RPA UI Path dans un environnement Amazon Appstream.

Missions :

Maintenance Datalake/Big Query (GCP) :

  • Compréhension de la mécanique d’intégration des données dans le data lake et disponibilité des librairies sous forme de dataset / projet disponible pour modélisation
  • Compréhension de la modélisation des résultats dans Google Big Query afin de fournir des visualisations pertinentes et/ou détecter la cause d’anomalie
  • Etre capable d’élaborer des critères de segmentation pour exploiter les données de façon optimale dans un objectif d’amélioration continue
  • Participation à la compréhension des problématiques métiers et opérationnelles afin de les traduire dans des dimensions statistiques et algorithmiques, principalement pour les domaines métier de back office (Finance, Achats, HR)
  • Corrections/Evolutions de rapports dans des outils de Data visualisation du type Google Data Studio
  • Etre capable d’analyser des situations d’anomalie et de remonter le fil d’analyse jusqu’à la détection de la cause de l’anomalie
  • Maintenance RPA (Robotic Automatisation Process)
  • Compréhension des processus métier Procurement ayant été automatisé avec l’aide d’UI Path à la base de logigrammes
  • Etre capable de reprendre le script des robots, de l’appréhender et de le modifier si nécessaire.
  • Monitorer les différentes exécutions des robots à la base des logs techniques, maintenir les statistiques de performance et corriger le script le cas échéant si anomalie
  • Corrections/Evolutions à apporter sur les robots qui permettent l’automatisation de processus métier
  • Etre en contact direct et quotidien avec les équipes métier responsable des processus automatisés
  • Gestion des échanges avec les différents partenaires internes sur le volet TMA :
    Suivi des incidents et évolutions avec projet au sein de l’équipe IS Domain et avec le métier
    Echanges avec les autres équipes : Digital Factory, Data scientists, autres acteurs de la DSI

Compétences :

  • Planifier ses activités et celles de l’équipe projet
  • Prendre position en choisissant une solution avec détermination
  • Proposer des solutions, entreprendre et faire avancer les dossiers
  • Transmettre l’information de façon claire et compréhensible (équipe et manager)
  • Définir, suivre, rendre compte et améliorer les indicateurs de son domaine
  • Travailler avec plusieurs équipes sans lien hiérarchique

Savoir-être :

  • Esprit d’équipe, aisance relationnelle et capacité à mobiliser
  • Appétence pour les nouveaux outils informatiques (Google Suite & Apps, Big Data (Big Query), Dataviz, UI Path…)
  • Flexibilité et aptitude à accompagner la gestion du changement
  • Connaissance et utilisation du mode projet Agile
  • Rigueur, organisation et méthode
  • Autonomie : Capacité à faire preuve d’indépendance dans la gestion de son travail quotidien et compréhension des enjeux et des différentes parties en présence
  • Sens de la performance : capacité à respecter les engagements, en recherche continuelle d’amélioration avec l’envie de les dépasser

Profil recherché

De Formation BAC+4 en Ecole d’Ingénieur ou équivalent, vous possédez une expérience de 3 ans minimum sur un poste similaire et maîtrisez l’exploitation et l’analyse de « données massives ».

Vous avez les connaissances suivantes :

  • connaissance des produits Google Cloud Platform, notamment Google Big Query et Data Studio (indispensable)
  • connaissance des concepts basiques de la programmation (indispensable)
  • connaissance des outils de robotisation (de préférence UI Path) serait un plus
  • connaissance des chatbots en environnement GCP
  • appétence pour le NLP (Natural Language Processing) ainsi que la connaissance des process ITIL serait un plus

Vous avez un niveau d’anglais courant.

Au-delà de solides compétences techniques, ce poste requiert une culture scientifique large, une vraie curiosité pour l’ensemble des process opérationnels de l’entreprise (notamment Finance et Procurement) et une capacité à analyser, et modéliser des datas dans un environnement cloud.

Vos qualités relationnelles, rédactionnelles, votre autonomie ainsi que votre motivation sont des atouts indispensables pour mener à bien cette mission.


Déroulement des entretiens

Entretien téléphonique puis visio :)

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres