L’équipe Data chez Goodvest est au cœur de notre stratégie de croissance. Elle s’articule autour de deux missions clés : la Data Analytics, pour piloter la performance, et la Data Product/Ops, pour garantir la fiabilité de nos flux de données critiques et l’optimisation de nos outils métiers internes.
Pour franchir un cap technique et répondre à nos ambitions de passage à l’échelle (scaling), nous recherchons notre futur(e) Data Engineer / DataOps confirmé(e) en CDI. Votre mission principale sera d’être le garant de la qualité, de la disponibilité et de la performance de nos données.
Infrastructure & Migration : Piloter la migration complète de notre Data Warehouse actuel (PostgreSQL) vers un système OLAP (ClickHouse, Redshift ou Snowflake) pour résoudre les lenteurs actuelles.
Fiabilisation des Pipelines : Optimiser et stabiliser nos flux d’ingestion (Airbyte) et nos DAGs d’orchestration (Airflow) pour éliminer les tâches manuelles et les échecs récurrents.
Modélisation & Data Quality : Adapter et structurer nos 180+ modèles DBT. Vous mettrez en place des tests de qualité de données et du monitoring (observabilité) pour garantir des données “Gold” fiables à 100%.
Ops & Architecture : Séparer proprement la stack technique entre les besoins “Produit” et “Analytics”. Vous mettrez en place les meilleures pratiques de code review et de CI/CD.
Maintien Opérationnel : Assurer la gestion des incidents de production en toute autonomie et mettre en place un système d’alerting performant.
À 3 mois : Vous maîtrisez notre stack (Airflow, Airbyte, DBT, Postgres) et gérez les incidents de production sans aide.
À 6 mois : La migration vers le nouveau système OLAP est terminée, et la stack est proprement segmentée entre Product et Analytics.
Ingestion : Airbyte, Airflow.
Orchestration : Airflow.
Stockage : PostgreSQL, AWS S3
Transformation : DBT.
BI : Metabase, PostHog.
Environnement : AWS, Docker, GitLab CI/CD.
Un rôle stratégique avec une grande autonomie technique.
2 jours de télétravail par semaine à partir d’un mois d’ancienneté.
Mutuelle, Tickets Restaurants et BSPCE.
Macbook Pro (M1 / M2 / M3).
Les indispensables :
Expérience : Profil confirmé avec une expérience solide en Data Engineering (pipelines, DW, orchestration).
Hard Skills :
Maîtrise avancée du SQL et de Python orienté data.
Expérience passée sur une technologie de Data Warehouse (Redshift, BigQuery, Clickhouse, Snowflake)
Expertise sur DBT (modélisation, macros Jinja, modèles incrémentaux).
Expérience sur un Cloud (AWS de préférence).
Maîtrise impérative de Git et des réflexes “Production-first”.
Data Ops : Expérience en monitoring, observabilité et gestion d’incidents critiques.
Le “plus” qui fera la différence :
Expérience passée dans la migration d’un Data Warehouse.
Connaissance d’un outil de streaming (Kafka, SQS).
Sensibilité aux enjeux de sécurité et RGPD.
Rigueur opérationnelle : Pour vous, la fiabilité passe avant la nouvelle fonctionnalité.
Problem Solver : Vous savez diagnostiquer et résoudre des pannes complexes sous pression.
Communication : Capacité à alerter clairement lors d’incidents et à vulgariser vos choix d’architecture auprès des équipes métiers.
Autonomie : Capacité à prioriser vos sujets techniques en fonction des enjeux business.
Réception des CV et première sélection.
Call de qualification rapide (20-30min).
Echange avec Thomas, notre Head of Data (45-60min).
Mise en situation (2h)
Entretien avec un fondateur (30min).
Décision finale.
Rencontrez Antoine, Cofondateur et CTO
Rencontrez Aurore, Late Founder et CMO
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.