Des scientifiques français réussissent à reconstituer la parole en temps réel | Orthomalin

Des scientifiques français réussissent à reconstituer la parole en temps réel

Nicolas Chaze  -  ven, 23/12/2016 - 07:00

Des chercheurs français ont réussi à développer un "synthétiseur vocal" qui permet de créer en temps réel, à partir de l'articulation silencieuse d'une personne, une parole de synthèse.

Un premier pas vers un outil permettant de redonner la voix aux muets, voire vers le traducteur universel du film de science-fiction Star Trek? Pour l'instant, les branchements sont encore un peu encombrants, mais des chercheurs français ont tout de même réussi à créer un "synthétiseur vocal". Un appareil qui permet de reconstituer en temps réel la parole d'une personne articulant "silencieusement", c'est-à-dire sans vocaliser, indique un communiqué du CNRS.

Comment?

Des capteurs sont d'abord posés sur la langue, les lèvres et la mâchoire du sujet, qui se met à articuler sans émettre de son. Un algorithme d'apprentissage automatique, "de type réseau de neurones profonds [une technologie du champ de l'intelligence artificielle type deep learning]", décode alors les mouvements articulatoires. Il les alors convertit, en une parole de synthèse.

Surtout, et c'est ce qui est nouveau par rapport aux autres système de conversion d'une articulation silencieuse développé par le passé, le synthétiseur fonctionne "en temps réel, sans restriction sur le vocabulaire et sur n'importe quel locuteur, après une courte période de calibration", affirment les chercheurs.  

Ces nouveaux résultats sont une étape nécessaire vers un objectif encore plus ambitieux, la création d'une interface cerveau-machine qui permettrait de reconstruire la parole en temps réel à partir de l'activité cérébrale, sans même articuler.  

L'étude, réalisée par des scientifiques du laboratoire Gipsa de Grenoble et du BrainTech Laboratory de l'Inserm, a été publiée dans PLOS Computational Biology. 

Auteur de l'article original: 
Victor GARCIA
Source: 
l'Express
Date de publication (dans la source mentionnée): 
Lundi, 19. Décembre 2016