SRE - Datalake

Shrnutí práce
Plný úvazek
Bordeaux
Plat: Neuvedeno
Dovednosti a odbornost
Dodržování bezpečnostních předpisů
Linux
Kubernetes
Dataiku
Scala
+4

OVHcloud
OVHcloud

Máte zájem o tuto nabídku?

Otázky a odpovědi ohledně nabídky

Pozice

Popis pozice

SRE - Datalake H/F/N

Au sein de votre équipe #OneTeam

  • Intégrer l’équipe Datalake de la squad “Group Platform and Infrastructure Operation - Data” au sein de la DSI.
  • Rejoindre une équipe organisée en mode Agile (sprint), composée d’un Squad Leader, d’un Tech Lead, d’un SRE et de deux Data Ops.
  • Contribuer au fonctionnement de la plateforme Datalake, centrale chez OVHcloud, qui stocke et valorise les données (calcul de revenu, tendances marketing, etc.).
  • Travailler sur une plateforme basée sur des technologies open-sources et ‘cloud-natives’ (S3, Apache Airflow, Spark, Jupyterhub, Trino, Superset, Dremio, Dataiku), le tout déployé dans Kubernetes.


Vos principales responsabilités
  • Assurer le RUN et la MCO (de la plateforme Datalake.
  • Participer aux évolutions techniques de la plateforme (roadmap trimestrielle).
  • Analyser les incidents en production (Niveau 2) et assurer le support applicatif.
  • Garantir la sécurité, tester et documenter les nouvelles releases.
  • Définir les standards, participer au design des solutions techniques et à la validation (UATs).
  • Exécuter des opérations de support client et faire de la veille technologique.


Votre futur impact

Dans 6 mois
  • Vous réaliserez le support technique pour les Data Engineers/Scientists.
  • Vous serez garant des bonnes pratiques (métiers/sécurité).
  • Vous proposerez des résolutions de bugs et des nouvelles fonctionnalités.


Et dans 1 an
  • Vous participerez à la rotation d’astreinte pour la production.
  • Vous serez force de proposition pour l’évolution de la stack.
  • Vous serez autonome sur le RUN de l’écosystème pour garantir les SLO.


Compétences requises :
  • Vous avez une expérience prouvée en projets data (datalakes, pipelines) en contexte de production.
  • Notions en IaC, CI/CD, Kubernetes et Linux.
  • Vous maîtrisez le design d’architectures data complexes.
  • Vous connaissez les concepts de Change Data Capture (CDC).


C’est un +
  • Vous rédigez des DAGs Airflow et développez des traitements Spark (Scala ou PySpark) en production.


Cette offre ne répond pas tout à fait à vos attentes ? Candidatez malgré tout !
C’est l’occasion de partager votre profil avec nos recruteurs, vous faire remarquer et peut-être recontacter pour une autre opportunité.

Cette offre ne répond pas tout à fait à vos attentes ? Candidatez spontanément sur le portail candidat pour rejoindre l’une de nos équipes !
L’occasion de partager votre profil avec nos recruteurs, vous faire remarquer et peut-être recontacter pour une autre opportunité.

Chcete se dozvědět více?