SRE Kafka

CDI
Bordeaux
Salaire : Non spécifié
Télétravail non renseigné
Postuler

OVHcloud
OVHcloud

Cette offre vous tente ?

Postuler
Questions et réponses sur l'offre

Le poste

Descriptif du poste

SRE Kafka H/F/N

Au sein de votre équipe #OneTeam

  • En tant que DevOps SRE Kafka vous intègrerez l’équipe QAAS (Queue As A Services) de la Squad Global Infrastructure Services Data chez OVHCloud au sein de la DSI.
  • Vous rejoindrez une équipe composée d’un Squad Leader, Tech Lead et de deux développeurs/experts Apache Kafka. L’équipe est organisée en mode Agile (sprint).
  • Apache Kafka est utilisé pour le transfert de données en temps réel. Il s’agit d’un service qui a pour vocation de répondre à des besoins de streaming d’évènements entre différentes applications. Cela s’inscrit dans une vision globale de construction d’une entreprise centrée sur la donnée (Data Centric).
  • De nombreuses équipes internes OVHCloud utilisent donc ce service au quotidien pour leurs transferts de données.nIl s’agit d’environnements (serveurs) dédiés ou mutualisés déployés sur les environnements OVHCloud.


Vos principales responsabilités
  • Participer au monitoring (RUN) et la maintenance (MCO) des plateformes basées sur la solution Apache Kafka
  • Prendre part aux évolutions de ces plateformes dans le respect de la roadmap (trimestrielle)
  • Tester et documenter les fonctionnalités des nouvelles releases
  • Garantir la sécurité de la plateforme
  • Etre à l’écoute des utilisateurs et avoir le rôle d’un véritable ambassadeur de la plateforme auprès de ces derniers
  • Effectuer une veille constante afin de pouvoir partager le fruit de vos recherches avec vos co-équipiers
  • Exécuter des opérations et support aux clients utilisant la plateforme :

    - Analyser des incidents techniques en production (trouble shooting)

    - Gérer le support applicatif niveau 1, notamment en heures non ouvrées

    - Faire l’interface avec les experts infrastructure (Supply, DC…) pour tout ce qui concerne la production
  • Proposer / Définir des standards pour la plateforme.
  • Participer au design des solutions techniques et aux études de faisabilité sur les futurs standards (e.g. nouveaux services)
  • Proposer des solutions techniques pérennes pour la validation des développements applicatifs (ex. Framework pour les tests de non-régression).
  • Effectuer des tests de performance et d’intégration pour assurer un bon niveau de qualité de service.
  • Participer à la validation (phases d’UATs) du cycle de vie de la plateforme pour s’assurer du bon “ tuning “ pour finaliser le(s) produit(s)/services
  • Produire et diffuser la documentation (produit, architecture…)
  • Supporter les clients dans les phases de migration vers un nouveau cluster


Votre futur impact

Dans 6 mois
  • Vous serez autonome sur le monitoring, de la maintenance et du support de niveau 1 des plateformes Kafka en production.
  • Vous aurez participé aux évolutions de la plateforme selon la roadmap trimestrielle.
  • Vous aurez proposé des standards pour la plateforme.
  • Votre veille sera régulière et vous en partagerez les résultats avec avec l’équipe.


Et dans 1 an
  • Vous serez reconnu en interne comme un des référents Apache Kafka.
  • Vous aurez contribué de façon significative au design de nouvelles solutions techniques et à l’étude de faisabilité de futurs services.
  • Vous aurez implémenté des solutions pérennes pour la validation des développements applicatifs (frameworks de tests) et le tuning des plateformes.
  • Vous tiendrez un rôle proactif dans l’écoute et le support des utilisateurs, et dans la promotion de la plateforme en interne (et pourquoi pas en conférences externes ?)


Compétences requises :
  • Vous connaissez Apache Kafka
  • Vous avez de fortes compétences en administration Linux (debian)
  • Les outils Puppet, Docker, Terraform et Ansible vous sont familiers
  • Vous développez en Golang et/ou Java

C’est un +
  • Vous avez déjà fait de l’administration Kafka

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Cloud computing et DevOps”.

Postuler