Senior Data Engineer (H/F)

Job summary
Permanent contract
Nantes, Paris
Occasional remote
Salary: €65K to 80K
Experience: > 5 years
Education: Master's Degree
Skills & expertise
Containerization and orchestration
Teamwork
Autonomy
Data visualization
Communication skills
+15

Koralplay
Koralplay

Interested in this job?

Questions and answers about the job

The position

Job description

🧭 Contexte de recrutement

Dans le cadre de la croissance rapide de nos cas d’usage data (produits, analytics, intelligence artificielle, support, automatisation), nous recrutons un·e Senior Data Engineer afin de structurer, fiabiliser et industrialiser notre plateforme de données.

Ce recrutement a pour objectifs :

  • D’accélérer notre capacité d’analyse en temps réel,

  • D’améliorer la qualité et la fiabilité des données streaming,

  • De garantir la scalabilité de notre stack data avec une approche DevOps,

  • De répondre aux besoins croissants des équipes métiers avec des données fraîches et fiables.

🎯 Vos missions

Au sein de l’équipe Data, en lien étroit avec les équipes Produit, Tech et Business, vous interviendrez notamment sur les missions suivantes :

  • Conception, développement et maintenance de pipelines de données robustes, scalables et documentés (batch & streaming temps réel avec Kafka ou équivalent),

  • Architecture et implémentation de solutions de streaming de données pour les besoins métiers critiques,

  • Modélisation des données dans le data warehouse pour en faciliter l’analyse (modèles métiers clairs, maintenables et performants),

  • Mise en place de pratiques de data quality : monitoring, alerting, tests de fiabilité, observabilité complète,

  • Déploiement et gestion de l’infrastructure data avec des pratiques IaC (Terraform) et CI/CD,

  • Gestion des environnements de développement, staging et production avec séparation claire,

  • Contribution à la définition de l’architecture data, au choix des outils, et à la structuration des bonnes pratiques d’ingénierie DevOps.

Collaboration interne et externe :

  • Product Managers (besoins analytiques, instrumentation produit en temps réel),

  • Data Analysts (modélisation, visualisation, accessibilité des données streaming),

  • Software engineers (intégration de pipelines, logs, APIs, services, événements temps réel),

  • Équipes DevOps/SRE (infrastructure, monitoring, alerting),

  • Fournisseurs de données (partenaires, APIs externes, flux streaming).

🔎 Responsabilités et autonomie

  • Forte autonomie attendue sur la conception et la réalisation technique des solutions streaming,

  • Responsabilité de la fiabilité et de la performance des flux de données critiques en production,

  • Contribution aux arbitrages techniques et décisions d’architecture,

  • Mentorat possible de profils juniors ou intermédiaires,

  • Garantie de la scalabilité et de la résilience des systèmes data en environnement critique.

🛠️ Environnement technique

L’ensemble de la nouvelle stack streaming est à concevoir. Vous participerez activement aux préconisations et aux choix techniques sur :

  • Les technologies de streaming (Kafka, Pulsar, Kinesis, Pub/Sub…)

  • L’orchestrateur (Airflow, Dagster…)

  • Les outils ELT/ETL temps réel

  • Les bonnes pratiques de data engineering, observabilité et DevOps

La stack existante :

  • 🛠️ Infrastructure as Code : Terraform

  • 📦 Orchestration de conteneurs : Kubernetes

  • ☁️ Cloud : Google Cloud Platform (GCP) - BigQuery, Vertex AI

  • ⚙️ Orchestration & automatisation : GitLab CI/CD -> ArgoCD

  • 🧱 Modélisation et préparation des données : DBT (Data Build Tool)

  • 🐍 Langage : Python

  • 📊 Visualisation : Looker Studio -> Metabase

  • 💻 Monitoring : Grafana, logs centralisés, alerting


Preferred experience

📝 NIVEAU D’EXPÉRIENCE ATTENDU :

  • Minimum 6 ans d’expérience en data engineering avec un focus data streaming,

  • Expérience significative dans des environnements tech critiques ou produits data-driven à forte charge,

  • Expérience avérée de gestion de projets data structurants en totale autonomie,

  • Expérience de mise en production et maintenance d’architectures data complexes.

✅ COMPETENCES IMPERATIVES :

  • Excellente maîtrise de SQL et Python (niveau avancé),

  • Expérience significative avec les technologies de streaming (Kafka ou similaire),

  • Expérience des architectures event-driven et microservices,

  • Expérience confirmée en Infrastructure as Code (Terraform) et gestion d’environnements,

  • Expérience d’un entrepôt de données moderne (BigQuery ou équivalent) à grande échelle,

  • Maîtrise des pratiques CI/CD et DevOps pour les pipelines data,

  • Expérience de la gestion multi-environnements (dev/staging/prod) avec séparation claire,

  • Culture de la qualité, des tests automatisés, de la documentation et du monitoring,

  • Autonomie technique forte et capacité de leadership sur des projets complexes,

  • Sens produit et compréhension approfondie des enjeux métiers temps réel,

  • Langue : Anglais professionnel requis.

✨ COMPETENCES SECONDAIRES APPRECIÉES :

  • Maîtrise d’un orchestrateur de workflow (Airflow, Dagster, etc.) en production,

  • Pratique approfondie des outils ELT/ETL modernes (Airbyte, DBT, etc.),

  • Expertise avancée en observabilité des données (Grafana, Prometheus, logs, métriques, alertes),

  • Connaissance des pratiques SRE (Site Reliability Engineering),

  • Capacité de communication et de vulgarisation des sujets data auprès de profils non techniques.

Cette offre est idéale pour un profil senior cherchant à avoir un impact direct sur une architecture data moderne et critique, avec une forte composante streaming et DevOps.

👋 Pourquoi rejoindre Koralplay?

  • 🎯 Koralplay est une jeune entreprise en pleine croissance internationale et d’effectifs.

  • 🚀 Missions variées et stimulantes dans l’univers de l’iGaming.

  • 🤝 Vous évoluerez dans une entreprise construit autour de l’humain et de l’ambition.

  • 🏗️ Vous aimez que votre travail ait un réel impact sur l’entreprise et soit valorisé.

  • 🏡 Vous bénéficierez de superbes locaux en plein coeur de Nantes (10mn de la gare).

✚ Les conditions du poste

  • 🏁 Data de démarrage : Dès que possible

  • 📍 Localisation : Soit dans nos bureaux basés à Nantes centre ville, soit dans nos bureaux basés à Paris IDF (8ème arrondissement).

  • 💻 Remote : Hybride

  • 💰 Salaire : Fourchette estimative entre 65-80k€ fixe brut selon le profil

  • 🕙 Horaires : Flexibilité horaire, statut Cadre au forfait jours

  • 📝 Avantages salariés : Mutuelle Alan, carte Swile, prime d’intéressement, forfait mobilité durable…


Recruitment process

Voici une idée du processus de recrutement :

  1. Echange téléphonique ou visio avec Jean-Charles, Recruteur (30/45mn)

  2. Entretien équipe avec Dorota, Lead Data et Valentin, Data engineer (1h en visio ou présentiel dans nos locaux)

  3. Etude de cas / Entretien technique avec Jérémie, Product Manager Data et Changwei, Data Analyst (1h en visio ou présentiel dans nos locaux)

  4. Entretien final avec Didier, COO (1h en visio ou présentiel dans nos locaux)

Want to know more?

These job openings might interest you!

These companies are also recruiting for the position of “Données/Business Intelligence”.

  • Lengow

    Senior Data Engineer

    Lengow
    Lengow
    Permanent contract
    Nantes
    A few days at home
    Salary: 40K to 60K
    Software, E-commerce
    189 employees