Votre rôle
Rejoignez HexaDone ! nous recherchons un·e Ingénieur·e DevOps Data expérimenté·e pour renforcer notre équipe technique et accompagner le développement de notre plateforme de données territoriales, innovante et souveraine.
Votre mission chez HexaDone
HexaDone est une joint-venture entre Orange et la Banque des Territoires, dont la vocation est d'aider les collectivités locales à mieux exploiter leurs données, pour améliorer les politiques publiques et le cadre de vie des citoyens.
Dans le cadre du renforcement de notre pôle Data, nous recherchons un Ingénieur DevOps/DataOps pour piloter le déploiement, la maintenance et l'optimisation de notre infrastructure basée sur Kubernetes.
Le Projet est un mélange de Build et de Run, vous serez un acteur clé dans les choix d'architecture, la mise en place des pipelines CI/CD, et le déploiement des outils Data sur Kubernetes
En résumé :
. Projet de construction d'une plateforme Data sur Kubernetes
. Collaboration étroite avec des profils Data Engineers, Data Scientists et Développeurs
. Méthodologie Agile
. Environnement technique moderne, centré sur l'automatisation, la scalabilité et la fiabilité
Missions principales
Concevoir et construire l'infrastructure/la plateforme Data basée sur Kubernetes
Participer aux choix d'architecture technique (infrastructure, stockage, sécurité, CI/CD, monitoring, ...)
Automatiser le déploiement des briques de l'écosystème Data : (Spark, Kafka, JupyterHub, Trino, OpenMetadata, dbt, MinIO, Postgresql, ...) via Helm + Kustomize
Mettre en place les pipelines CI/CD et les pratiques GitOps (GitLab CI, ArgoCD, Argo Workflows, Argo Events)
Définir et implémenter les bonnes pratiques DevOps appliquées à la Data : tests, observabilité, gouvernance, reproductibilité
Gérer les aspects sécurité, gestion fine des droits et authentification (OPA, Keycloak, RBAC, namespaces Kubernetes)
Mettre en place les outils de monitoring et d'alerting (Prometheus, Grafana)
Travailler en étroite collaboration avec les équipes Data Engineering et Développement pour répondre à leurs besoins
Être force de proposition sur les technologies, les patterns d'automatisation et les optimisations futures
Avoir déjà rencontré et adressé les limites, bottlenecks ou problématiques de performance sur des outils comme Trino, Spark, Kafka ou MinIO est un véritable atout