🌍 Qui sommes-nous ?
Chez Vizzia, on révolutionne la manière dont les villes luttent contre les incivilités grâce à la technologie. Née de la collaboration entre le CNRS et Polytechnique, notre startup allie computer vision, capteurs 4G/5G nomades et cloud souverain pour rendre les territoires plus propres et plus sûrs.
Concrètement ? On permet aux collectivités d’identifier les dépôts sauvages en quelques minutes, et aux forces de l’ordre de résoudre des enquêtes plus rapidement grâce à des dispositifs de vidéoprotection nouvelle génération. Notre mission : mettre la technologie au service du bien commun, sans jamais compromettre la vie privée des citoyens.
🚀 En pleine phase de scale, Vizzia c’est déjà :
- Plus de 150 villes équipées en France, de 65 à 300 000 habitants
- 80 % de réduction des dépôts sauvages là où nous sommes déployés
- Une levée de fonds de 16 M€ en 2025 pour accélérer notre croissance
- Une équipe engagée de 60+ personnes, prête à doubler dans l’année
Rejoindre Vizzia, c’est contribuer à une mission à impact, au croisement de la tech, de l’environnement et de la sécurité urbaine. Et c’est surtout rejoindre une équipe exigeante, bienveillante, et convaincue qu’on peut faire mieux que l’à-peu-près.
Vizzia accélère sa croissance et déploie une infrastructure IoT passant de 500 à plus de 2 000 capteurs. Pour soutenir cette montée en échelle, nous recrutons un Lead Data Platform Engineer chargé de concevoir, construire et opérer la plateforme data unifiée qui alimente nos équipes AI, SaaS et BizOps.
Cette plateforme sera le socle technique permettant un accès self‑service à des données fiables, sécurisées, gouvernées et scalables, un levier clé pour notre mission et pour l’impact de nos produits.
Concevoir, opérer et faire évoluer la plateforme data unifiée pour mettre la donnée au service de l’IA, du produit et des opérations.
Structurer et piloter la gouvernance des données (modèle canonique, data contracts, qualité, RGPD) et assurer le leadership technique de l’équipe data.
Concevoir, construire et opérer un data lakehouse unifié (IoT, CRM, systèmes internes, product data, outputs IA) avec un haut niveau de fiabilité.
Mettre en place des workflows de data qualité, monitoring, observabilité et lineage, avec un objectif de <0,1 % d’incidents plateforme.
Déployer une infrastructure de self-service data utilisée par 80 % des équipes internes et réduire de 50 % les requêtes manuelles.
Optimiser la plateforme pour supporter 2 000+ devices IoT avec une augmentation de coût <5 % par device, en assurant un pilotage FinOps.
Concevoir et maintenir des datasets fiables pour l’équipe IA, avec un monitoring automatisé de la fraîcheur et de la dérive des données.
Collaborer étroitement avec les équipes AI, SaaS, BizOps et Infra pour assurer cohérence, performance et livraison continue.
Encadrer techniquement les ingénieurs plus juniors et diffuser les bonnes pratiques d’ingénierie (revues de code, standards, CI/CD).
Cartographier l’existant : systèmes, flux, schémas et identifiants (IoT, VPN/RMS, Hubspot, SaaS, Strapi, process de provisioning, etc.) et rendre ce mapping lisible par les équipes produit, ops et business.
Définir et maintenir un modèle de données canonique (clients, sites, assets IoT, tickets, événements, utilisateurs) servant de référence commune à l’AI, au SaaS et aux opérations.
Formaliser et maintenir des data contracts entre systèmes et équipes (IoT, Hubspot, SaaS, Strapi, facturation…) afin de garantir la cohérence, la complétude et la stabilité des données clés.
Mettre en place et opérer un data catalog / dictionnaire de données (définitions métiers, propriétaires de données, règles de qualité) et en assurer l’adoption interne.
Co-construire avec les équipes Produit, BizOps et Support des datasets et vues analytiques standard (assets, santé du parc, incidents, usage produit, qualité de service) qui alimentent les dashboards métier.
Piloter des revues régulières de qualité et de cohérence des données, suivre des indicateurs de data quality et animer la résolution des problèmes structurels avec les équipes concernées.
Implémenter et contrôler les exigences GDPR (RGPD) : gestion des PII, politiques d’accès, rétention, auditabilité, et garantir leur application sur la plateforme data.
Excellente maîtrise des data warehouses cloud (Snowflake ou équivalent) et de l’architecture de plateformes data distribuées.
Forte expertise en ETL/ELT (Airbyte, Airflow, dbt) et en stack AWS data (S3, Lambda, Glue, Athena ou équivalents).
Compétences avancées en data modeling (conceptuel et logique), schémas canoniques et optimisation de bases (time-series / IoT DBs, stores relationnels/colonnaires).
Solide expérience en data reliability engineering : monitoring, alerting, gestion d’incidents, SLO/SLI.
Très bonne compréhension des enjeux GDPR (RGPD) appliqués techniquement (PII, contrôles d’accès, rétention, auditabilité).
Maîtrise de l’ingénierie logicielle : Python, SQL avancé, design d’API, CI/CD.
Expérience démontrée en modélisation de données métier et en création de modèles “core” partagés entre plusieurs domaines (IoT, CRM, produit, support).
Pratique de la data gouvernance : dictionnaire de données, data catalog, data ownership, mise en place de data contracts entre équipes.
Capacité à animer des ateliers avec des profils non techniques (ops terrain, support, produit, sales) pour comprendre les processus, définir les entités clés et aligner les définitions de KPIs.
Capacité à collaborer avec des équipes pluridisciplinaires et à communiquer clairement des décisions techniques.
Certifications cloud (AWS, Snowflake, GCP) appréciées.
Certifications en data engineering, data governance ou privacy engineering.
Expérience avec des time-series / IoT databases (TimescaleDB ou équivalent) et des outils BI modernes (Metabase, Looker, Tableau…) est un plus.
Sens de l’ownership : capacité démontrée à porter une plateforme, résoudre des incidents et améliorer les systèmes en continu.
Pragmatique, orienté résultats et qualité : focus sur la simplicité, la scalabilité et l’impact.
Capacité à traduire des enjeux business (qualité de service, déploiement terrain, performance produit) en décisions d’architecture data.
Expérience en scaling IoT ou environnements hautement distribués.
Goût pour le mentoring, la structuration et la montée en compétence des équipes autour de la donnée.
🏡 Hybride à Paris et selon le rôle
🏝 Contrat cadre et RTT (entre 8 et 12 par an en fonction des jours fériés de l’année en cours)
💻 Un Mac ou PC selon tes préférences
🍜 Prise en charge à 60% des tickets restaurants de 9€ par jour ouvré et travaillé
👩🏫 Prise en charge de 50€ par mois de budget formation
🏥 Mutuelle complète (Alan)
💼 Des locaux situés en plein Paris (3e arrondissement)
☀️ Offsite annuel avec toute l’équipe et nombreux évents d’entreprise
Si l’issue est positive, tu auras 5 jours pour donner ta réponse. On sera ravi de t’accueillir parmi nous !
Envie d’en savoir plus sur notre culture, nos valeurs et la vie chez Vizzia ? Rendez-vous sur la page Life at Vizzia
Prêt à nous rejoindre ?
Rencontrez Alexandre, Co-fondateur & CTPO
Rencontrez Vincent, Computer Vision Engineer
Estas empresas también contratan para el puesto de "{profesión}".