Les Neurophysiologistes Des États-Unis Ont Appris à «écouter» Les Pensées Humaines - Vue Alternative

Les Neurophysiologistes Des États-Unis Ont Appris à «écouter» Les Pensées Humaines - Vue Alternative
Les Neurophysiologistes Des États-Unis Ont Appris à «écouter» Les Pensées Humaines - Vue Alternative

Vidéo: Les Neurophysiologistes Des États-Unis Ont Appris à «écouter» Les Pensées Humaines - Vue Alternative

Vidéo: Les Neurophysiologistes Des États-Unis Ont Appris à «écouter» Les Pensées Humaines - Vue Alternative
Vidéo: Сознание и Личность. От заведомо мёртвого к вечно Живому 2024, Mai
Anonim

Les biologistes américains ont créé une puce électronique capable de lire en temps réel les signaux du centre auditif du cerveau et de déchiffrer ce que son propriétaire entend ou dit. Cette technologie rendra le pouvoir de la parole aux personnes paralysées et muettes, écrivent des scientifiques dans la revue Nature Communications.

Au cours des 10 dernières années, les neurophysiologistes ont réussi à faire une véritable percée dans le domaine de la création de neurointerfaces - un ensemble de micropuces, d'électrodes spéciales et de programmes informatiques qui permettent de connecter des cyber-membres, des yeux artificiels et même des organes sensoriels qui n'ont pas d'analogues dans la nature - imageurs thermiques et Imageurs à rayons X.

Par exemple, en mars 2013, des scientifiques brésiliens et américains ont pu combiner les cerveaux de deux rats vivant à des milliers de kilomètres l'un de l'autre, dans une sorte de «réseau local», ou, comme les scientifiques eux-mêmes appelaient cette construction, «ordinateur organique», et leur apprendre à échanger information.

Plus tard, ils ont créé un «esprit collectif» similaire en combinant les cerveaux de trois singes, et il y a deux ans, d'autres chercheurs ont pu remplacer la partie endommagée de l'hippocampe, le centre de mémoire dans le cerveau des souris, et les débarrasser du «syndrome de la marmotte», l'incapacité de se souvenir de nouvelles informations.

De tels succès, comme le note Chartier, ont amené de nombreux scientifiques à se demander s'il était possible de lire directement les pensées des centres de la parole du cerveau et de les articuler. La pratique a montré que résoudre ce problème s'est avéré être une entreprise bien plus difficile que de connecter de nouveaux bras et jambes au corps d'un patient paralysé.

Au printemps de cette année, Chartier et ses collègues ont pu le résoudre car ils n'ont pas essayé de déchiffrer les signaux cérébraux et de «lire» directement les mots et les lettres, mais ont suggéré que nos centres de la parole encodent non pas des sons spécifiques, mais des ensembles d'instructions pour les muscles de la bouche, le larynx de la langue et cordes vocales. Cela leur a permis pour la première fois de lire «honnêtement» les pensées du cerveau de plusieurs épileptiques.

Ayant obtenu des succès similaires, les neurophysiologistes californiens ont essayé d'appliquer la même technique afin de lire non seulement les pensées du centre de la parole des volontaires, mais aussi des régions du cerveau qui sont responsables du traitement des informations des organes auditifs.

Avec le soutien de trois patients chez lesquels des électrodes du centre auditif ont été implantées, les scientifiques ont commencé à surveiller l'activité de cette partie du cortex cérébral alors que les volontaires entendaient ou répondaient aux questions de Chartier et de ses collègues.

Vidéo promotionelle:

En enregistrant ces signaux et en les comparant les uns aux autres, les neurophysiologistes ont créé un algorithme qui «déchiffre» les commandes du cerveau dans un langage compréhensible pour un ordinateur. Contrairement à la version précédente de ce programme, la nouvelle idée originale des neurophysiologistes californiens peut non seulement exprimer les pensées «entendues» des volontaires, mais aussi les convertir en texte en comparant les questions et les réponses.

Bien que ce système ait un «vocabulaire» assez restreint, il peut en même temps fonctionner en temps réel et commettre des erreurs beaucoup moins souvent que d’autres systèmes du même type. En moyenne, elle lit correctement environ trois mots, syllabes et sons sur quatre dans une phrase, ce qui est suffisant pour la communication.

Une «formation» plus poussée de l'algorithme, comme l'espère Chartier, permettra d'utiliser cette neurointerface pour communiquer librement avec des paralytiques, des victimes d'un AVC ou des personnes stupides qui ont perdu la capacité de parler en raison d'un traumatisme au crâne ou aux cordes vocales.

Recommandé: