Les laboratoires GIPSA-lab (Grenoble) & Laboratoire Dynamique du langage (Lyon) proposent une thèse co-encadrée et financée sur le Retour articulatoire visuel pour l'aide à la rééducation des troubles de la parole.

Cette thèse est rattachée à l'Ecole doctorale EEATS-SIPT de l’Université de Grenoble-Alpes et bénéficie d'un financement ARC6 de Région Rhône-Alpes. Elle s'adresse à un/e Master 2 Recherche ou diplôme d’ingénieur dans les domaines de l’informatique, des mathématiques appliquées (notamment machine learning) ou du traitement du signal et de l’image. Des compétences en sciences du langage (phonétique), en traitement automatique de la parole, et/ou en sciences cognitives seront très appréciées.

 

 

English version

 

Contexte & motivation :
La communication parlée est l’interface majeure des interactions humaines et les troubles de la parole sont à l’origine d’importants handicaps. Certains de ces troubles peuvent être causés par un contrôle déficient des “articulateurs” de la parole, c’est-à-dire les lèvres, la mâchoire, et surtout la langue, qui jouent un rôle majeur dans la production de la parole. La rééducation orthophonique d’un trouble de l’articulation repose sur :
(1) la compréhension par le praticien de ce mauvais positionnement articulatoire,
(2) sur la capacité du patient à adapter la position de ses articulateurs à partir des indications du praticien.
Si les lèvres et la mâchoire sont directement visibles, la langue est en revanche un articulateur beaucoup moins accessible. C’est de plus un organe dont un patient a généralement peu conscience des mouvements. Un système de retour visuel articulatoire est un système automatique permettant au praticien comme au patient, de visualiser, en temps réel, les mouvements de l’ensemble des articulateurs du patient, et en particulier les articulateurs non directement visibles comme la langue. L’objectif d’un tel système est d’aider le praticien dans son diagnostic, et d’améliorer la conscience articulatoire du patient en rééducation.

Mots-clés : technologies vocales, avatar 3D, machine learning, réalité augmentée, orthophonie.

 

Etat de l’art :
Le GIPSA-lab développe depuis plusieurs années un système de retour visuel basé sur un avatar permettant de visualiser, en 3D et sous n’importe quel angle, les articulateurs d’un locuteur de référence (voir image ci-contre). Nos récents travaux ont porté sur l’animation automatique de cet avatar à partir de la voix seule. Ils s’appuient sur des techniques de modélisation par apprentissage automatique (machine learning) de type GMM et HMM. Une vidéo du prototype développé est disponible ici. A ce jour, ce système n’a été testé que sur des locuteurs non pathologiques. L’objectif de cette thèse est d’évaluer et d’adapter ce système pour une utilisation dans le cadre de la rééducation orthophonique.

 

Objectifs :
- Constitution d’une base de données acoustico-articulatoire, acquise sur des locuteurs présentant un trouble de l’articulation. Evaluation du système de retour visuel articulatoire existant sur ces données pathologiques. Cette étape s’effectuera en étroite collaboration avec le CHU de Lyon.
- Adaptation du système existant en vue d’une utilisation par des locuteurs pathologiques. On s’intéressera (1) à une amélioration de la capacité de généralisation des modèles statistiques existants, et (2), à l’utilisation de l’échographie pour capturer les mouvements de la langue lorsque ces derniers sont trop complexes à estimer à partir de la seule voix du patient. Ce dernier point pourra s’appuyer sur la plateforme Ultraspeech.
- Evaluation qualitative et quantitative du système final dans le cadre de séances de rééducation orthophonique au CHU de Lyon.

 

Encadrement GIPSA-lab (Grenoble) : Pierre Badin et Thomas Hueber (CNRS/GIPSA-lab)
Co-encadrement Laboratoire DDL (Lyon) : Mélanie Canault et Nathalie Bedoin (Laboratoire DDL)

 

Localisation : le travail se déroulera principalement à Grenoble, avec des périodes à Lyon.

 

Financement : Bourse Doctorale de la Région Rhône-Alpes ARC6, complétée par frais de séjour à Lyon.

 

Profil et compétences souhaités :
- Master 2 Recherche ou diplôme d’ingénieur dans les domaines de l’informatique, des mathématiques appliquées (notamment machine learning) ou du traitement du signal et de l’image. Des compétences en sciences du langage (phonétique), en traitement automatique de la parole, et/ou en sciences cognitives seront très appréciées.
- Bonnes compétences en programmation (Matlab, C, et idéalement Max/MSP).

 

Candidature : envoyer CV / lettre de motivation / relevé de notes Master 1 et 2 (ou équivalent) à Cette adresse e-mail est protégée contre les robots spammeurs. Vous devez activer le JavaScript pour la visualiser..