DataOps & DevOps Engineer - Confirmé·e

Rejoins notre équipe en tant que DataOps & DevOps Engineer. Tu joueras un rôle clé dans la fiabilité, l'automatisation et la performance des pipelines de données. Tu feras le lien entre les équipes Data Engineering, DevOps et les métiers pour assurer un accès fluide, sécurisé et optimisé aux données. Les missions incluent le déploiement et le maintien des pipelines de données, la supervision de la qualité et de la sécurité des données, l'automatisation du déploiement des traitements et des modèles de données, et la collaboration avec les équipes Data Engineering, Data Science et IT.

Résumé suggéré par Welcome to the Jungle

CDI
Paris, Caen
Télétravail fréquent
Salaire : Non spécifié
Expérience : > 5 ans
Missions clés

Déploiement et maintien des pipelines de données robustes (ETL/ELT) et environnements (intégration, recette, production).

Supervision de la qualité, la sécurité et la disponibilité des données dans les environnements Cloud (AWS / GCP / Azure).

Automatisation du déploiement des traitements et des modèles de données (CI/CD).

JAKALA
JAKALA

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

Au sein de notre practice Data & AI et en tant que Data Ops Engineer, tu joues un rôle clé dans la fiabilité, l’automatisation et la performance des pipelines de données.

Tu fais le lien entre les équipes Data Engineering, DevOps et les métiers pour assurer un accès fluide, sécurisé et optimisé aux données.

Tes missions incluent :

  • Déploiement et maintien des pipelines de données robustes (ETL/ELT) et  environnements (intégration, recette, production)

  • Supervision de la qualité, la sécurité et la disponibilité des données dans les environnements Cloud (AWS / GCP / Azure).

  • Automatisation du déploiement des traitements et des modèles de données (CI/CD).

  • Monitoring et le support des jobs de production.

  • Participation à la définition et au suivi des standards DataOps (versioning, tests, documentation, etc.).

  • Collaboration avec les équipes Data Engineering, Data Science et IT pour garantir la scalabilité et la performance des solutions déployées.

  • Optimisation des coûts d’infrastructure liés à la donnée.

  • Documentation des procédures, flux de données et configurations.

Tu joues un rôle crucial dans le succès de nos clients et dans le développement de notre culture en France. Tu contribues à renforcer notre réputation en tant qu’experts.

Ensemble, nous relèverons les plus grands défis de nos clients, anticiperons les tendances futures et créerons des solutions innovantes à l’échelle globale !

Compétences requises :

Techniques :

  • Déploiement en environnement Cloud (GCP, AWS, Azure), en particulier des Datawarehouses tels que BigQuery, Snowflake ou Databricks.

  • Principes CI/CD (Github action, Gitlab CI, Azure Devops) et de l’Infrastructure as Code (Terraform, Ansible, Docker, Kubernetes).

  • Outils de monitoring (Prometheus, Grafana, etc.) et de gestion des logs (ELK, Datadog…).

  • Outils d’orchestrations Airflow, Azure Data Factory, GCP Composer, Databricks workflow …

Serait un plus :

  • Connaissance des outils de traitement de données : dbt, Spark, Kafka, etc.

  • Compétences en SQL, Python

Fonctionnelles :

  • Compréhension des problématiques métiers autour de la donnée (data quality, sécurité, gouvernance).

  • Capacité à collaborer avec des profils variés (techniques et non-techniques).


Profil recherché

Fort·e d’une expérience réussie de 5 ans minimum dans un environnement DataOps, DevOps ou Data Engineering.

  • Idéalement une expérience en cabinet de conseil - sur des projets liés à nos expertises : data & IA use cases, data architecture

  • Tu as des capacités à travailler de manière autonome et en équipe.

  • Tu as d’excellentes compétences en communication et en présentation avec la capacité de formaliser et vulgariser ses résultats auprès d’un public non expert.

  • Tu es une personne enthousiaste, dynamique, curieuse, rigoureuse et sachant faire preuve de force de proposition et de conviction.

  • Tu es passionné·e par ton métier et tu aimes le partager.

  • La maîtrise de l’anglais est appréciée.

Nous recherchons quelqu’un qui est passionné·e par la data, qui a une bonne curiosité intellectuelle et un goût pour l’innovation et la collaboration.

Les avantages

  • Entreprise en plein développement, véritable tremplin et accélérateur de progression

  • Projets et missions sur des champs techniques très variés

  • Mise en situation de responsabilité rapidement

  • Bureau en plein centre de Paris et de Caen

  • Télétravail possible jusqu’à 3 jours par semaine

  • Mutuelle d’entreprise

  • 50% de frais de participation pour les transports

  • Ticket restaurant d’une valeur de 10,83€ (60% prise en charge par l’employeur)

Contrat

  • Poste à pourvoir en CDI

  • Rémunération selon profil et expérience

  • Poste ouvert aux personnes en situation de handicap


Déroulement des entretiens

  • Une pré-qualification avec notre Talent Acquisition

  • Un entretien avec le Manager Data

  • Un challenge technique au travers d’un cas d’usage personnalisé

  • Un dernier entretien avec l’un de nos Partners

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Cloud computing et DevOps”.

  • RS2i

    Consultant Kafka DevOps H/F

    RS2i
    RS2i
    CDI
    Levallois-Perret
    Télétravail occasionnel
    Intelligence artificielle / Machine Learning, IT / Digital
    200 collaborateurs

  • Eridanis

    DevOps Engineer

    Eridanis
    Eridanis
    CDI
    Paris
    Télétravail fréquent
    Salaire : ≥ 45K €
    Intelligence artificielle / Machine Learning, Transformation
    25 collaborateurs

  • Arkhn

    Junior DevOps/SRE Engineer

    Arkhn
    Arkhn
    CDI
    Paris
    Télétravail total
    Intelligence artificielle / Machine Learning, Big Data
    25 collaborateurs

  • VIDAL

    Ingénieur Système DevOps (H/F)

    VIDAL
    VIDAL
    CDI
    Issy-les-Moulineaux…+1
    Télétravail fréquent
    Application mobile, Intelligence artificielle / Machine Learning
    248 collaborateurs

  • Polynom

    DevSecOps

    Polynom
    Polynom
    CDI
    Rueil-Malmaison
    Télétravail fréquent
    Intelligence artificielle / Machine Learning, Stratégie
    40 collaborateurs

  • Lenstra

    Senior Cloud Engineer

    Lenstra
    Lenstra
    CDI
    Paris
    Télétravail fréquent
    Logiciels, Intelligence artificielle / Machine Learning
    30 collaborateurs

Voir toutes les offres