Ingénieur DevOps Data0ps F/H

CDI
Issy-les-Moulineaux
Télétravail non autorisé
Salaire : 50K à 70K €
Expérience : > 10 ans
Éducation : Bac +3
Postuler

Orange
Orange

Cette offre vous tente ?

Postuler
Questions et réponses sur l'offre

Le poste

Descriptif du poste


Votre rôle

Rejoignez HexaDone ! nous recherchons un·e Ingénieur·e DevOps Data expérimenté·e pour renforcer notre équipe technique et accompagner le développement de notre plateforme de données territoriales, innovante et souveraine.
Votre mission chez HexaDone
HexaDone est une joint-venture entre Orange et la Banque des Territoires, dont la vocation est d'aider les collectivités locales à mieux exploiter leurs données, pour améliorer les politiques publiques et le cadre de vie des citoyens.

Dans le cadre du renforcement de notre pôle Data, nous recherchons un Ingénieur DevOps/DataOps pour piloter le déploiement, la maintenance et l'optimisation de notre infrastructure basée sur Kubernetes.
Le Projet est un mélange de Build et de Run, vous serez un acteur clé dans les choix d'architecture, la mise en place des pipelines CI/CD, et le déploiement des outils Data sur Kubernetes
En résumé :
. Projet de construction d'une plateforme Data sur Kubernetes
. Collaboration étroite avec des profils Data Engineers, Data Scientists et Développeurs
. Méthodologie Agile
. Environnement technique moderne, centré sur l'automatisation, la scalabilité et la fiabilité
Missions principales
Concevoir et construire l'infrastructure/la plateforme Data basée sur Kubernetes
Participer aux choix d'architecture technique (infrastructure, stockage, sécurité, CI/CD, monitoring, ...)
Automatiser le déploiement des briques de l'écosystème Data : (Spark, Kafka, JupyterHub, Trino, OpenMetadata, dbt, MinIO, Postgresql, ...) via Helm + Kustomize
Mettre en place les pipelines CI/CD et les pratiques GitOps (GitLab CI, ArgoCD, Argo Workflows, Argo Events)
Définir et implémenter les bonnes pratiques DevOps appliquées à la Data : tests, observabilité, gouvernance, reproductibilité
Gérer les aspects sécurité, gestion fine des droits et authentification (OPA, Keycloak, RBAC, namespaces Kubernetes)
Mettre en place les outils de monitoring et d'alerting (Prometheus, Grafana)
Travailler en étroite collaboration avec les équipes Data Engineering et Développement pour répondre à leurs besoins
Être force de proposition sur les technologies, les patterns d'automatisation et les optimisations futures
Avoir déjà rencontré et adressé les limites, bottlenecks ou problématiques de performance sur des outils comme Trino, Spark, Kafka ou MinIO est un véritable atout

Profil recherché


Votre profil
Vos hard skills
Excellente maîtrise de Kubernetes (multi-namespaces) et de Rancher
Solide expérience avec ArgoCD et les principes GitOps
Très bonnes compétences en scripting Python et en automatisation
Connaissance des pipelines CI/CD et des Argo Workflows
À l'aise avec les environnements Linux, PostgreSQL et le stockage objet (MinIO)
Familiarité avec JupyterHub et les environnements utilisés par les data scientists
Capacité à assurer la scalabilité, la sécurité et la performance d'une infrastructure data
Vos soft skills
Curieux et toujours prêt à apprendre
Autonome, rigoureux·se et orienté·e solution
Esprit d'équipe et goût pour le partage de connaissances
Sens des responsabilités et ownership de vos sujets
À l'aise dans un environnement collaboratif et multidisciplinaire
Envie de contribuer à un projet à impact au service des territoires

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Cloud computing et DevOps”.

Voir toutes les offres
Postuler