Chez My Job Glasses, nous construisons des produits à impact pour aider chacun à faire les bons choix d’orientation et de carrière.
Dans ce cadre, nous lançons Immersion, un projet stratégique mené avec Mistral AI et Bpifrance, visant à créer une banque de vidéos intelligentes, enrichies et structurées grâce à l’IA.
Ce projet marque un changement d’échelle majeur pour la Data chez MJG :
traitement de volumes importants de vidéos et d’audios,
structuration de pipelines data robustes et scalables,
et plus largement, mise à plat et fiabilisation de l’organisation data globale de l’entreprise.
Nous créons donc un poste de Data Engineer Senior, avec un double enjeu :
Réussir le projet Immersion, en lien étroit avec nos partenaires (Deloitte, AWS).
Structurer durablement l’infrastructure data de My Job Glasses, en collaboration avec le Data Analyst et les équipes produit & tech.
Rattaché(e) au CPTO, tu rejoins une équipe en construction, avec un rôle clé dans les choix d’architecture et la mise en œuvre opérationnelle.
Le poste est résolument hands-on, avec une vraie latitude pour proposer, structurer et faire évoluer l’existant.
Tes principales missions :
Data ingestion
Collecter, extraire et ingérer des données depuis différentes sources (bases de données, APIs, logs, flux externes).
Cas Immersion : récupération et ingestion de vidéos et d’audios.
Data transformation
Nettoyer, transformer et structurer les données brutes pour les rendre exploitables.
Cas Immersion : découpage en chunks, transcription, analyse sémantique des segments.
Data storage
Concevoir et maintenir les solutions de stockage (data lake, data warehouse, bases de données).
Cas Immersion : stockage S3 et alimentation d’un catalogue structuré de segments.
Data modeling
Définir et maintenir les modèles de données, schémas et dictionnaires de données à l’échelle de l’entreprise.
Cas Immersion : définition du vocabulaire et des modèles data communs.
Data pipeline development
Construire des pipelines automatisés, monitorés et fiables pour assurer un traitement fluide des données.
Cas Immersion : reprise et évolution des pipelines développés avec Deloitte.
Mettre en place des contrôles de qualité des données et des outils de monitoring.
Assurer la sécurité des données et la conformité avec les exigences réglementaires (RGPD).
Optimiser les pipelines et les systèmes de stockage en termes de performance, scalabilité et coûts.
Évaluer et faire évoluer les pipelines existants sur les produits My Job Glasses.
Travailler main dans la main avec le Data Analyst, les équipes Produit, Tech et Data Science.
Partager tes bonnes pratiques, documenter et jouer un rôle de mentor auprès de profils plus juniors.
🛠️ Stack technique
Langages : SQL (incontournable), Python / JavaScript / Shell
ETL / Orchestration : dbt
Bases de données : PostgreSQL, MongoDB
Cloud : AWS, GCP ou Azure
Data Warehouse / Data Lake : BigQuery, Snowflake (ou équivalent)
Data Viz : PowerBI, Metabase (ou équivalent)
Data modeling : ER Model, Snowflake
Bonnes pratiques : ETL / ELT, monitoring, documentation, qualité des données
+7 ans d’expérience professionnelle, dont 3 à 5 ans en tant que Data Engineer
Background possible de développeur backend solide, quelle que soit la stack
Profil senior : tu conçois, tu codes, tu mets en prod
À l’aise dans des environnements en construction, avec un fort enjeu d’impact
Expérience appréciée en cabinet de conseil Data ou sur des projets structurants
Vision & architecture : capacité à concevoir des solutions scalables et à faire les bons choix techniques
Collaboration : travail transverse avec Product, Data Scientists, Analystes et ingénieurs backend
Mentorat : envie de transmettre et de structurer les bonnes pratiques
Communication : expliquer simplement des sujets complexes
Autonomie & proactivité : anticiper les sujets de qualité, de performance et de dette data
SQL très solide
Approche pragmatique et orientée delivery
Goût pour les projets data à fort impact
Rencontrez Marine, Developpeuse Full Stack
Rencontrez Laura, Product Manager
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.