DataOps & DevOps Engineer - Confirmé·e

Rejoins notre équipe en tant que DataOps & DevOps Engineer. Tu joueras un rôle clé dans la fiabilité, l'automatisation et la performance des pipelines de données. Tu feras le lien entre les équipes Data Engineering, DevOps et les métiers pour assurer un accès fluide, sécurisé et optimisé aux données. Les missions incluent le déploiement et le maintien des pipelines de données, la supervision de la qualité et de la sécurité des données, l'automatisation du déploiement des traitements et des modèles de données, et la collaboration avec les équipes Data Engineering, Data Science et IT.

Résumé suggéré par Welcome to the Jungle

Résumé du poste
CDI
Paris, Caen
Télétravail fréquent
Salaire : Non spécifié
Expérience : > 5 ans
Compétences & expertises
Aptitudes techniques
Gestion de la documentation
Sécurité du cloud
Communication
Programmation fonctionnelle
+15
Missions clés

Déploiement et maintien des pipelines de données robustes (ETL/ELT) et environnements (intégration, recette, production).

Supervision de la qualité, la sécurité et la disponibilité des données dans les environnements Cloud (AWS / GCP / Azure).

Automatisation du déploiement des traitements et des modèles de données (CI/CD).

JAKALA
JAKALA

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

Au sein de notre practice Data & AI et en tant que Data Ops Engineer, tu joues un rôle clé dans la fiabilité, l’automatisation et la performance des pipelines de données.

Tu fais le lien entre les équipes Data Engineering, DevOps et les métiers pour assurer un accès fluide, sécurisé et optimisé aux données.

Tes missions incluent :

  • Déploiement et maintien des pipelines de données robustes (ETL/ELT) et  environnements (intégration, recette, production)

  • Supervision de la qualité, la sécurité et la disponibilité des données dans les environnements Cloud (AWS / GCP / Azure).

  • Automatisation du déploiement des traitements et des modèles de données (CI/CD).

  • Monitoring et le support des jobs de production.

  • Participation à la définition et au suivi des standards DataOps (versioning, tests, documentation, etc.).

  • Collaboration avec les équipes Data Engineering, Data Science et IT pour garantir la scalabilité et la performance des solutions déployées.

  • Optimisation des coûts d’infrastructure liés à la donnée.

  • Documentation des procédures, flux de données et configurations.

Tu joues un rôle crucial dans le succès de nos clients et dans le développement de notre culture en France. Tu contribues à renforcer notre réputation en tant qu’experts.

Ensemble, nous relèverons les plus grands défis de nos clients, anticiperons les tendances futures et créerons des solutions innovantes à l’échelle globale !

Compétences requises :

Techniques :

  • Déploiement en environnement Cloud (GCP, AWS, Azure), en particulier des Datawarehouses tels que BigQuery, Snowflake ou Databricks.

  • Principes CI/CD (Github action, Gitlab CI, Azure Devops) et de l’Infrastructure as Code (Terraform, Ansible, Docker, Kubernetes).

  • Outils de monitoring (Prometheus, Grafana, etc.) et de gestion des logs (ELK, Datadog…).

  • Outils d’orchestrations Airflow, Azure Data Factory, GCP Composer, Databricks workflow …

Serait un plus :

  • Connaissance des outils de traitement de données : dbt, Spark, Kafka, etc.

  • Compétences en SQL, Python

Fonctionnelles :

  • Compréhension des problématiques métiers autour de la donnée (data quality, sécurité, gouvernance).

  • Capacité à collaborer avec des profils variés (techniques et non-techniques).


Profil recherché

Fort·e d’une expérience réussie de 5 ans minimum dans un environnement DataOps, DevOps ou Data Engineering.

  • Idéalement une expérience en cabinet de conseil - sur des projets liés à nos expertises : data & IA use cases, data architecture

  • Tu as des capacités à travailler de manière autonome et en équipe.

  • Tu as d’excellentes compétences en communication et en présentation avec la capacité de formaliser et vulgariser ses résultats auprès d’un public non expert.

  • Tu es une personne enthousiaste, dynamique, curieuse, rigoureuse et sachant faire preuve de force de proposition et de conviction.

  • Tu es passionné·e par ton métier et tu aimes le partager.

  • La maîtrise de l’anglais est appréciée.

Nous recherchons quelqu’un qui est passionné·e par la data, qui a une bonne curiosité intellectuelle et un goût pour l’innovation et la collaboration.

Les avantages

  • Entreprise en plein développement, véritable tremplin et accélérateur de progression

  • Projets et missions sur des champs techniques très variés

  • Mise en situation de responsabilité rapidement

  • Bureau en plein centre de Paris et de Caen

  • Télétravail possible jusqu’à 3 jours par semaine

  • Mutuelle d’entreprise

  • 50% de frais de participation pour les transports

  • Ticket restaurant d’une valeur de 10,83€ (60% prise en charge par l’employeur)

Contrat

  • Poste à pourvoir en CDI

  • Rémunération selon profil et expérience

  • Poste ouvert aux personnes en situation de handicap


Déroulement des entretiens

  • Une pré-qualification avec notre Talent Acquisition

  • Un entretien avec le Manager Data

  • Un challenge technique au travers d’un cas d’usage personnalisé

  • Un dernier entretien avec l’un de nos Partners

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Cloud computing et DevOps”.

  • D-EDGE Hospitality Solutions

    Database Reliability Engineer - (H/F/NB)

    D-EDGE Hospitality Solutions
    D-EDGE Hospitality Solutions
    CDI
    Paris
    Télétravail fréquent
    Digital Marketing / Data Marketing, SaaS / Cloud Services
    590 collaborateurs

  • Nanotera

    DevOps Engineer - SaaS Platform (H/F)

    Nanotera
    Nanotera
    CDI
    Levallois-Perret
    Télétravail fréquent
    Salaire : 60K à 70K €
    Digital Marketing / Data Marketing, Marketing / Communication
    250 collaborateurs