Lead Data Platform Engineer

Résumé du poste
CDI
Paris
Télétravail fréquent
Salaire : Non spécifié
Compétences & expertises
Gestion des données
Communication
Règlement Général de Protection des Données (RGPD)
Gestion de la qualité
Coaching et mentorat
+14

Vizzia
Vizzia

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

🌍 Qui sommes-nous ?

Chez Vizzia, on révolutionne la manière dont les villes luttent contre les incivilités grâce à la technologie. Née de la collaboration entre le CNRS et Polytechnique, notre startup allie computer vision, capteurs 4G/5G nomades et cloud souverain pour rendre les territoires plus propres et plus sûrs.

Concrètement ? On permet aux collectivités d’identifier les dépôts sauvages en quelques minutes, et aux forces de l’ordre de résoudre des enquêtes plus rapidement grâce à des dispositifs de vidéoprotection nouvelle génération. Notre mission : mettre la technologie au service du bien commun, sans jamais compromettre la vie privée des citoyens.

🚀 En pleine phase de scale, Vizzia c’est déjà :

- Plus de 150 villes équipées en France, de 65 à 300 000 habitants

- 80 % de réduction des dépôts sauvages là où nous sommes déployés

- Une levée de fonds de 16 M€ en 2025 pour accélérer notre croissance

- Une équipe engagée de 100+ personnes, prête à doubler dans l’année

Rejoindre Vizzia, c’est contribuer à une mission à impact, au croisement de la tech, de l’environnement et de la sécurité urbaine. Et c’est surtout rejoindre une équipe exigeante, bienveillante, et convaincue qu’on peut faire mieux que l’à-peu-près.

🎯 Mission

Vizzia accélère sa croissance et déploie une infrastructure IoT passant de 500 à plus de 2 000 capteurs. Pour soutenir cette montée en échelle, nous recrutons un Lead Data Platform Engineer chargé de concevoir, construire et opérer la plateforme data unifiée qui alimente nos équipes AI, SaaS et BizOps.

Cette plateforme sera le socle technique permettant un accès self‑service à des données fiables, sécurisées, gouvernées et scalables, un levier clé pour notre mission et pour l’impact de nos produits.

  1. Concevoir, opérer et faire évoluer la plateforme data unifiée pour mettre la donnée au service de l’IA, du produit et des opérations.

  2. Structurer et piloter la gouvernance des données (modèle canonique, data contracts, qualité, RGPD) et assurer le leadership technique de l’équipe data.

🛠 Responsabilités

Plateforme & infrastructure data

  • Concevoir, construire et opérer un data lakehouse unifié (IoT, CRM, systèmes internes, product data, outputs IA) avec un haut niveau de fiabilité.

  • Mettre en place des workflows de data qualité, monitoring, observabilité et lineage, avec un objectif de <0,1 % d’incidents plateforme.

  • Déployer une infrastructure de self-service data utilisée par 80 % des équipes internes et réduire de 50 % les requêtes manuelles.

  • Optimiser la plateforme pour supporter 2 000+ devices IoT avec une augmentation de coût <5 % par device, en assurant un pilotage FinOps.

  • Concevoir et maintenir des datasets fiables pour l’équipe IA, avec un monitoring automatisé de la fraîcheur et de la dérive des données.

  • Collaborer étroitement avec les équipes AI, SaaS, BizOps et Infra pour assurer cohérence, performance et livraison continue.

  • Encadrer techniquement les ingénieurs plus juniors et diffuser les bonnes pratiques d’ingénierie (revues de code, standards, CI/CD).

Modélisation, gouvernance et contrats de données

  • Cartographier l’existant : systèmes, flux, schémas et identifiants (IoT, VPN/RMS, Hubspot, SaaS, Strapi, process de provisioning, etc.) et rendre ce mapping lisible par les équipes produit, ops et business.

  • Définir et maintenir un modèle de données canonique (clients, sites, assets IoT, tickets, événements, utilisateurs) servant de référence commune à l’AI, au SaaS et aux opérations.

  • Formaliser et maintenir des data contracts entre systèmes et équipes (IoT, Hubspot, SaaS, Strapi, facturation…) afin de garantir la cohérence, la complétude et la stabilité des données clés.

  • Mettre en place et opérer un data catalog / dictionnaire de données (définitions métiers, propriétaires de données, règles de qualité) et en assurer l’adoption interne.

  • Co-construire avec les équipes Produit, BizOps et Support des datasets et vues analytiques standard (assets, santé du parc, incidents, usage produit, qualité de service) qui alimentent les dashboards métier.

  • Piloter des revues régulières de qualité et de cohérence des données, suivre des indicateurs de data quality et animer la résolution des problèmes structurels avec les équipes concernées.

  • Implémenter et contrôler les exigences GDPR (RGPD) : gestion des PII, politiques d’accès, rétention, auditabilité, et garantir leur application sur la plateforme data.

✅ Profil recherché

  • Excellente maîtrise des data warehouses cloud (Snowflake ou équivalent) et de l’architecture de plateformes data distribuées.

  • Forte expertise en ETL/ELT (Airbyte, Airflow, dbt) et en stack AWS data (S3, Lambda, Glue, Athena ou équivalents).

  • Compétences avancées en data modeling (conceptuel et logique), schémas canoniques et optimisation de bases (time-series / IoT DBs, stores relationnels/colonnaires).

  • Solide expérience en data reliability engineering : monitoring, alerting, gestion d’incidents, SLO/SLI.

  • Très bonne compréhension des enjeux GDPR (RGPD) appliqués techniquement (PII, contrôles d’accès, rétention, auditabilité).

  • Maîtrise de l’ingénierie logicielle : Python, SQL avancé, design d’API, CI/CD.

  • Expérience démontrée en modélisation de données métier et en création de modèles “core” partagés entre plusieurs domaines (IoT, CRM, produit, support).

  • Pratique de la data gouvernance : dictionnaire de données, data catalog, data ownership, mise en place de data contracts entre équipes.

  • Capacité à animer des ateliers avec des profils non techniques (ops terrain, support, produit, sales) pour comprendre les processus, définir les entités clés et aligner les définitions de KPIs.

  • Capacité à collaborer avec des équipes pluridisciplinaires et à communiquer clairement des décisions techniques.

🎓 Optionnel — Diplômes / Certifications

  • Certifications cloud (AWS, Snowflake, GCP) appréciées.

  • Certifications en data engineering, data governance ou privacy engineering.

  • Expérience avec des time-series / IoT databases (TimescaleDB ou équivalent) et des outils BI modernes (Metabase, Looker, Tableau…) est un plus.

⭐ Ce qui fera la différence

  • Sens de l’ownership : capacité démontrée à porter une plateforme, résoudre des incidents et améliorer les systèmes en continu.

  • Pragmatique, orienté résultats et qualité : focus sur la simplicité, la scalabilité et l’impact.

  • Capacité à traduire des enjeux business (qualité de service, déploiement terrain, performance produit) en décisions d’architecture data.

  • Expérience en scaling IoT ou environnements hautement distribués.

  • Goût pour le mentoring, la structuration et la montée en compétence des équipes autour de la donnée.

Les avantages en CDI chez Vizzia :

🏡 Hybride à Paris et selon le rôle

🏝 Contrat cadre et RTT (entre 8 et 12 par an en fonction des jours fériés de l’année en cours)

💻 Un Mac ou PC selon tes préférences

🍜 Prise en charge à 60% des tickets restaurants de 9€ par jour ouvré et travaillé

👩‍🏫 Prise en charge de 50€ par mois de budget formation

🏥 Mutuelle complète (Alan)

💼 Des locaux situés en plein Paris (9e arrondissement)

☀️ Offsite annuel avec toute l’équipe et nombreux évents d’entreprise

Si l’issue est positive, tu auras 4 jours pour donner ta réponse. On sera ravi de t’accueillir parmi nous !

Envie d’en savoir plus sur notre culture, nos valeurs et la vie chez Vizzia ? Rendez-vous sur la page Life at Vizzia

Prêt à nous rejoindre ?

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

  • Vizzia

    Senior Data Engineer

    Vizzia
    Vizzia
    CDI
    Paris
    Télétravail fréquent
    SaaS / Cloud Services, Objets connectés
    74 collaborateurs

  • Mirakl

    AI Agent Engineer - Freelance

    Mirakl
    Mirakl
    CDI
    Paris
    Télétravail fréquent
    SaaS / Cloud Services, E-commerce
    750 collaborateurs

  • Esri France

    Ingénieur consultant SIG F/H

    Esri France
    Esri France
    CDI
    Meudon
    Télétravail fréquent
    Logiciels, Intelligence artificielle / Machine Learning
    262 collaborateurs

  • Pulsover

    Data Engineer Databricks

    Pulsover
    Pulsover
    CDI
    Paris
    Télétravail fréquent
    Intelligence artificielle / Machine Learning, IT / Digital

  • ADVANCED SCHEMA

    Data Engineer

    ADVANCED SCHEMA
    ADVANCED SCHEMA
    CDI
    Paris
    Télétravail non autorisé
    IT / Digital, SaaS / Cloud Services
    220 collaborateurs

  • Pennylane

    Data Engineering Manager

    Pennylane
    Pennylane
    CDI
    Paris
    Télétravail total
    Expertise comptable, FinTech / InsurTech
    900 collaborateurs

Voir toutes les offres