Les Signaux Cérébraux Sont Convertis En Parole à L'aide De L'intelligence Artificielle - Vue Alternative

Table des matières:

Les Signaux Cérébraux Sont Convertis En Parole à L'aide De L'intelligence Artificielle - Vue Alternative
Les Signaux Cérébraux Sont Convertis En Parole à L'aide De L'intelligence Artificielle - Vue Alternative

Vidéo: Les Signaux Cérébraux Sont Convertis En Parole à L'aide De L'intelligence Artificielle - Vue Alternative

Vidéo: Les Signaux Cérébraux Sont Convertis En Parole à L'aide De L'intelligence Artificielle - Vue Alternative
Vidéo: L'Intelligence Artificielle en Afrique : Réalisations, Problèmes, Enjeux et Solutions 2024, Mai
Anonim

Dans un effort pour aider les personnes qui ne peuvent pas parler, les neuroscientifiques ont mis au point un appareil capable de convertir les signaux cérébraux en parole. Cette technologie n'est pas encore suffisamment développée pour une utilisation en dehors du laboratoire, bien qu'elle puisse être utilisée pour synthétiser des phrases entières qui sont pour la plupart comprises, écrit «Nature».

Dans un effort pour aider les personnes qui ne peuvent pas parler, les neuroscientifiques ont mis au point un appareil capable de convertir les signaux cérébraux en parole.

Cette technologie n'est pas encore assez mature pour une utilisation en dehors du laboratoire, bien qu'elle puisse être utilisée pour synthétiser des phrases entières généralement comprises. Les créateurs du décodeur de parole ont présenté sa description dans un article publié dans la revue Nature le 24 avril.

Les scientifiques ont utilisé l'intelligence artificielle dans le passé pour convertir les signaux cérébraux en mots uniques, principalement d'une syllabe, explique Chethan Pandarinath, neuroingénieur à l'Université Emory d'Atlanta, en Géorgie, qui a écrit un commentaire sur l'article. «Passer d'une syllabe à des phrases est techniquement difficile et, en partie, pourquoi le travail est si impressionnant», dit-il.

Convertir le mouvement en son

De nombreuses personnes qui ont perdu la capacité de parler communiquent à l'aide d'un appareil qui les oblige à faire de petits mouvements pour utiliser le curseur pour sélectionner des lettres ou des mots à l'écran. Un exemple célèbre était le physicien britannique Stephen Hawking, qui avait une maladie du motoneurone. Il a utilisé un appareil vocal activé par le muscle de la joue, a déclaré le chef de l'étude Edward Chang, neurochirurgien à l'Université de Californie à San Francisco.

Parce que les personnes utilisant de tels appareils doivent taper des mots lettre par lettre, ces appareils peuvent être très lents, «parlant» jusqu'à dix mots par minute, dit Chang. La parole naturelle implique en moyenne 150 mots par minute. «Cela est dû à l'efficacité du tractus vocal», dit-il. C'est pourquoi Chang et son équipe ont décidé de simuler le système vocal lors de la construction de leur décodeur vocal.

Vidéo promotionelle:

Les scientifiques ont travaillé avec cinq personnes qui ont été implantées avec des électrodes à la surface du cerveau dans le processus de traitement de l'épilepsie. Au début, lorsque les participants à l'expérience ont lu des centaines de phrases à haute voix, les scientifiques ont enregistré l'activité du cerveau. Chang et ses collègues ont ensuite combiné ces enregistrements avec des données d'expériences antérieures qui ont déterminé comment les mouvements de la langue, des lèvres, de la mâchoire et du larynx conduisent à la formation du son.

En utilisant ces données, les scientifiques ont «formé» un algorithme d'apprentissage en profondeur, puis ont inclus ce programme dans leur décodeur. L'appareil convertit les signaux cérébraux en mouvements spécifiés du tractus vocal et convertit ces mouvements en parole synthétique. Les personnes qui ont écouté les 101 phrases synthétisées ont pu comprendre en moyenne 70% des mots, dit Chang.

Dans une autre expérience, les scientifiques ont demandé à l'un des participants de lire des phrases à voix haute, puis de couper les mêmes phrases avec la bouche. Les phrases synthétisées dans ce cas étaient de moins bonne qualité que celles synthétisées à partir du discours «parlé», dit Chang, mais les résultats sont toujours encourageants.

Comprendre la parole synthétisée est une question d'avenir

La parole, synthétisée en convertissant les signaux cérébraux en mouvements des voies vocales et en les traduisant en son, est plus facile à comprendre que la parole, qui est synthétisée en convertissant directement les signaux cérébraux en son, explique Stephanie Riès, neuroscientifique à l'Université d'État de San Diego. en Californie.

Mais on ne sait pas si le nouveau décodeur de parole fonctionnera avec des mots que les gens ne «parlent» que dans leur esprit, dit Amy Orsborne, neuro-ingénieur à l'Université de Washington à Seattle. «L'article montre très bien que l'appareil fonctionne avec un discours mimique», dit-elle. "Mais comment ça marche si la personne ne bouge pas ses lèvres?"

Marc Slutzky, neuroscientifique à la Northwestern University de Chicago, dans l'Illinois, est d'accord et dit que le décodeur de parole peut être plus efficace. Il note que les auditeurs ont identifié le discours synthétisé en choisissant des mots parmi un ensemble d'options, mais à mesure que le nombre d'options augmentait, il devenait plus difficile de comprendre les mots.

Cette recherche "est une étape vraiment importante, mais il reste encore beaucoup à faire avant que la parole synthétisée puisse être facilement comprise", dit Slutsky.

Géorgie Guglielmi (Giorgia Guglielmi)

Recommandé: