Data Architect (H/F)

Résumé du poste
CDI
Paris
Salaire : Non spécifié
Début : 02 juin 2024
Télétravail fréquent
Expérience : > 10 ans
Éducation : Bac +5 / Master
Compétences & expertises
Gestion de la relation client
Connaissance des protocoles de sécurité
Gestion des données
Compétences en communication
Planification et organisation
+15
Postuler

Mydral
Mydral

Cette offre vous tente ?

Postuler
Questions et réponses sur l'offre

Le poste

Descriptif du poste

Qui sommes-nous ?

Mydral est une société de conseil qui aide ses clients à mieux comprendre leurs données. Nos clients sont issus de secteurs d'activités tels que Banque, Assurance, Retail, Public, Industrie etc.

Nous les accompagnons sur toutes leurs problématiques métiers avec une expertise sur la compréhension et l'automatisation des processus métiers, la data gouvernance, la business science, le reporting, le dashboarding, le data journalisme, la stratégie business.

Dans notre offre de services, nous proposons la Création des centres de compétences Analytics, le Cadrage de projet Analytics, le Pilotage projet, la Préparation de données, la Data Visualisation, l'Intégration plateforme Analytics, la Formation, le Support & TMA.

Nos 3 principales valeurs sont : Excellence, Esprit de corps, Pionnier.

Vous souhaitez travailler dans une entreprise qui allie l'humain à la data ?

Rejoignez-nous ! Nous avons hâte de VOUS onboarder.

Nous sommes engagés en faveur des personnes en situation de handicap : dans le cadre de la politique de diversité, nous étudions toutes les candidatures en prenant en compte les besoins d’aménagement de poste.

Quel est le rôle du Consultant Data Architect chez Mydral ?

En tant qu'Architecte Technique, vous travaillerez en étroite collaboration:

Côté Mydral : avec la direction des services et les équipes commerciales.

Côté  client : avec les équipes projet, Production, Sécurité et les Architectes d'Entreprise.

Pour ce faire, vous aurez la charge de :

  • Concevoir l'architecture de tout ou partie des systèmes de traitement de données de nos clients
  • Implémenter les outils de traitement de données (base de données, moteurs de calcul, couches d'exposition et de visualisation) et les systèmes tiers (équilibreurs de charge et proxies, relais d'authentification, etc.)
  • Auditer le fonctionnement et les performances des systèmes en place chez nos clients
  • Mettre en place les moyens de supervision des applications de traitement de données
  • Planifier, suivre votre projet ainsi que de savoir en rendre compte en interne,
  • Réaliser une veille technologique permanente
  • Une connaissance de SQL est requise (notamment des fonctions d'administration des différentes technologies de SGBD)
  • Systèmes Windows et Linux
  • Avoir des connaissances sur les aspects d’authentification et de sécurité: protocoles de communication, SSL/TLS, gestion des habilitations,
  • Maitriser des solutions de stockage de données,
  • Concevoir et déployer une architecture distribuée pour le traitement de données,
  • Avoir des compétences en virtualisation, conteneurisation (Docker, Kubernetes), systèmes (Linux, Windows), réseau, bases de données SQL, scripting (Bash / cmd / Powershell), ordonnancement, packaging CI/CD
  • Des compétences en mise en place d'architectures Cloud (GCP,AWS, Azure) seraient un plus.
  • Idéalement, une expérience en préparation et visualisation de données avec KNIME, Dataiku et/ou Tableau ainsi que des connaissances Terraform, Ansible

  • Quelles sont les soft skills attendues ?

  • Autonomie pour structurer et organiser votre travail
  • Capacité à monter en compétence rapidement sur de nouveaux sujets / nouvelles technologies
  • Idéalement vous disposez d'une expérience sur l’intégration de plateformes techniques Analytics (type Knime, Vertica, Snowflake, Tableau) ;
  • Vous avez développé un fort sens du service, un bon relationnel avec vos clients et la rigueur nécessaire au succès de vos projets.

 

Exemple de projet mené par nos architectes 

Chez un leader du secteur automobile, nos architectes ont mis en place une plateforme analytique complète :

  • Dimensionnement des machines et conception des matrices de flux réseau
  • Déploiement et supervision d'un cluster Tableau Server en staging et en production
  • Mise en place et configuration d'un bastion pour que les analystes puissent accéder à l'environnement de développement
  • Livraison des procédures d'installation et d'exploitation, et mise en place de la gouvernance de la solution

Envie d’en savoir plus ?

Postuler