Lieu : Palaiseau, France
Thales est un leader mondial des hautes technologies spécialisé dans trois secteurs d’activité : Défense & Sécurité, Aéronautique & Spatial, et Cyber & Digital. Il développe des produits et solutions qui contribuent à un monde plus sûr, plus respectueux de l’environnement et plus inclusif. Le Groupe investit près de 4 milliards d’euros par an en Recherche & Développement, notamment dans des domaines clés de l’innovation tels que l’IA, la cybersécurité, le quantique, les technologies du cloud et la 6G. Thales compte près de 81 000 collaborateurs dans 68 pays.
Notre savoir-faire technologique
Notre attention portée à l’équilibre des collaborateurs
Un environnement inclusif et bienveillant
Un engagement sociétal et environnemental reconnu (Thales Solidarity, indice CAC 40 ESG…)
En intégrant CortAIx Labs, vous contribuerez au développement d’une solution combinant des approches d’intelligence artificielle et des approches de traitement du signal et de la vision par ordinateur pour la reconnaissance de locuteur et la classification des émotions.
Avec l’essor des modèles multimodaux récents, il devient possible de combiner efficacement des signaux hétérogènes tels que la voix et l’image pour renforcer la robustesse des systèmes d’intelligence artificielle. Les approches unimodales classiques en reconnaissance vocale ou faciale atteignent leurs limites, en particulier dans des environnements bruités.
Vous aurez pour objectif de développer et d’évaluer des méthodes de deep learning multimodales exploitant simultanément l’audio et la vidéo du dataset SpeakingFaces, y compris dans des conditions bruitées. Ces travaux auront des applications directes dans la sécurité biométrique, l’interaction homme–machine et les assistants vocaux intelligents.
Dans ce contexte, vous aurez pour missions :
État de l’art des méthodes multimodales audio–vidéo (reconnaissance de locuteur, analyse d’émotions, fusion multimodale) et des approches de robustesse au bruit.
Identification des architectures et modèles open-source les plus pertinents pour le dataset SpeakingFaces et notre cas d’usage.
Implémentation et adaptation des modèles présélectionnés, avec une attention particulière au prétraitement audio–vidéo et aux techniques de réduction de bruit.
Évaluation des performances en conditions normales et bruitées, selon plusieurs métriques (taux de reconnaissance, précision émotionnelle, robustesse).
Mise en place d’un démonstrateur
Vous avez envie de découvrir le domaine de la recherche ?
Vous avez pour ambition de réaliser votre stage au sein de Thales ?
Etudiant en M2, en Ecole d’ingénieur ou formation équivalente, vous avez des connaissances en :
Python
Intelligence Artificielle ;
Traitement du signal ;
Vision par Ordinateur
Anglais (niveau B2-C1 attendu)
Rigueur, autonomie et goût pour l’expérimentation sont des atouts que l'on vous reconnait ? Alors ce stage est fait pour vous !
Tous nos stages sont conventionnés et soumis à une gratification dont le montant est déterminé selon votre niveau d’études.Thales, entreprise Handi-Engagée, reconnait tous les talents. La diversité est notre meilleur atout. Postulez et rejoignez nous !Rencontrez François, Responsable d'un laboratoire de Data Science
Rencontrez Pierre, Ingénieur logiciel système
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.