Que Sont Les Interfaces Neuronales Et Ce Qui Les Attend Dans Le Futur - Vue Alternative

Table des matières:

Que Sont Les Interfaces Neuronales Et Ce Qui Les Attend Dans Le Futur - Vue Alternative
Que Sont Les Interfaces Neuronales Et Ce Qui Les Attend Dans Le Futur - Vue Alternative

Vidéo: Que Sont Les Interfaces Neuronales Et Ce Qui Les Attend Dans Le Futur - Vue Alternative

Vidéo: Que Sont Les Interfaces Neuronales Et Ce Qui Les Attend Dans Le Futur - Vue Alternative
Vidéo: Les interfaces cerveau/intelligence artificielle (avec Lê, Science4All) #ConsciencesCollectives3 2024, Novembre
Anonim

Les neurointerfaces - technologies qui connectent le cerveau et l'ordinateur - deviennent progressivement une routine: nous avons déjà vu comment, à l'aide d'ordres mentaux, une personne peut contrôler une prothèse ou taper du texte sur un ordinateur. Cela signifie-t-il que les promesses des écrivains de science-fiction qui ont écrit sur la lecture à part entière de pensées à l'aide d'un ordinateur ou même sur le transfert de la conscience humaine dans un ordinateur deviendront bientôt une réalité? Le même thème - "Personnalité augmentée" - en 2019 est dédié au concours de récits de science-fiction "Future Time", organisé par la fondation caritative Sistema. En collaboration avec les organisateurs du concours, les éditeurs N + 1 ont découvert de quoi les interfaces neuronales modernes sont capables et si nous pouvons vraiment créer une connexion cerveau-ordinateur à part entière. Et Alexander Kaplan nous a aidés dans ce domaine,fondateur du premier laboratoire d'interface russe à l'Université d'État Lomonosov de Moscou.

Hack le corps

Neil Harbisson a une achromatopsie congénitale qui l'a privé de la vision des couleurs. Le Britannique, décidant de tromper la nature, a implanté une caméra spéciale qui convertit la couleur en information sonore et l'envoie à l'oreille interne. Neil se considère comme le premier cyborg officiellement reconnu par l'État.

En 2012, aux États-Unis, Andrew Schwartz de l'Université de Pittsburgh a présenté une patiente paralysée de 53 ans qui, à l'aide d'électrodes implantées dans son cerveau, a envoyé des signaux à un robot. Elle a tellement appris à contrôler le robot qu'elle a pu se servir une tablette de chocolat.

En 2016, dans le même laboratoire, un patient de 28 ans souffrant d'une grave lésion médullaire a tendu une main artificielle contrôlée par le cerveau à Barack Obama qui lui a rendu visite. Des capteurs sur la main permettaient au patient de sentir la poignée de main du 44e président des États-Unis.

La biotechnologie moderne permet aux gens de «casser» les limites de leur corps, créant une symbiose entre le cerveau humain et l'ordinateur. Il semble que tout se dirige vers le fait que la bio-ingénierie fera bientôt partie de la vie quotidienne.

Vidéo promotionelle:

Que va-t-il se passer ensuite? Le philosophe et futuriste Max More, adepte de l'idée de transhumanisme, développe depuis la fin du siècle dernier l'idée de la transition de l'homme vers une nouvelle étape d'évolution en utilisant, entre autres, les technologies informatiques. Dans la littérature et le cinéma des deux derniers siècles, un jeu similaire de l'imagination futuriste a glissé.

Dans le monde du roman de science-fiction Neuromancer de William Gibbson, publié en 1984, des implants ont été développés pour permettre à leur porteur de se connecter à Internet, d'étendre ses capacités intellectuelles et de revivre ses souvenirs. Masamune Shiro, l'auteur du manga culte de science-fiction japonais "Ghost in the Shell" récemment tourné aux USA, décrit un futur dans lequel tout organe peut être remplacé par des bioniques, jusqu'au transfert complet de conscience dans le corps d'un robot.

Jusqu'où peuvent aller les interfaces neuronales dans un monde où, d'une part, l'ignorance multiplie les fantasmes, et d'autre part, les fantasmes se révèlent souvent providence?

Différence potentielle

Le système nerveux central (SNC) est un réseau de communication complexe. Il y a plus de 80 milliards de neurones dans le cerveau seul, et il y a des milliards de connexions entre eux. Chaque milliseconde à l'intérieur et à l'extérieur d'une cellule nerveuse, la distribution des ions positifs et négatifs change, déterminant comment et quand elle réagira à un nouveau signal. Au repos, le neurone a un potentiel négatif par rapport à l'environnement (en moyenne -70 millivolts), ou «potentiel de repos». En d'autres termes, il est polarisé. Si un neurone reçoit un signal électrique d'un autre neurone, pour qu'il soit transmis davantage, des ions positifs doivent entrer dans la cellule nerveuse. La dépolarisation se produit. Lorsque la dépolarisation atteint une valeur seuil (environ -55 millivolts, cependant, cette valeur peut varier),la cellule est excitée et laisse entrer de plus en plus d'ions chargés positivement, ce qui crée un potentiel positif, ou "potentiel d'action".

Potentiel d'action
Potentiel d'action

Potentiel d'action.

En outre, le potentiel d'action le long de l'axone (canal de communication cellulaire) est transmis à la dendrite - le canal récepteur de la cellule suivante. Cependant, l'axone et la dendrite ne sont pas directement connectés et l'impulsion électrique ne peut pas simplement passer de l'un à l'autre. Le lieu de contact entre eux s'appelle une synapse. Les synapses produisent, transmettent et reçoivent des neurotransmetteurs - des composés chimiques qui «transmettent» directement un signal de l'axone d'une cellule à la dendrite d'une autre.

Lorsque l'impulsion atteint la fin de l'axone, elle libère des neurotransmetteurs dans la fente synaptique, traversant l'espace entre les cellules et se fixant à l'extrémité de la dendrite. Ils forcent la dendrite à laisser entrer des ions chargés positivement, à passer du potentiel de repos au potentiel d'action et à transmettre un signal au corps cellulaire.

Le type de neurotransmetteur détermine également quel signal sera envoyé plus loin. Par exemple, le glutamate conduit à un déclenchement neuronal, l'acide gamma-aminobutyrique (GABA) est un médiateur inhibiteur important et l'acétylcholine peut faire les deux selon la situation.

Voici à quoi ressemble schématiquement un neurone:

Diagramme neuronal
Diagramme neuronal

Diagramme neuronal.

Et voici à quoi ça ressemble en réalité:

Neuron sous le microscope
Neuron sous le microscope

Neuron sous le microscope.

De plus, la réponse de la cellule réceptrice dépend du nombre et du rythme des impulsions entrantes, des informations provenant d'autres cellules, ainsi que de la zone cérébrale à partir de laquelle le signal a été envoyé. Diverses cellules auxiliaires, les systèmes endocrinien et immunitaire, l'environnement externe et l'expérience antérieure - tout cela détermine l'état actuel du système nerveux central et affecte ainsi le comportement humain.

Et bien que, comme on le comprend, le système nerveux central ne soit pas un ensemble de «fils», le travail des neurointerfaces repose précisément sur l'activité électrique du système nerveux.

Saut positif

La tâche principale de la neurointerface est de décoder le signal électrique provenant du cerveau. Le programme dispose d'un ensemble de "modèles" ou "événements" composés de diverses caractéristiques de signal: fréquences de vibration, pics (pics d'activité), emplacements sur le cortex, etc. Le programme analyse les données entrantes et tente d'y détecter ces événements.

Les commandes envoyées dépendent en outre du résultat obtenu, ainsi que de la fonctionnalité du système dans son ensemble.

Un exemple d'un tel modèle est le potentiel évoqué P300 (positif 300), souvent utilisé pour les soi-disant orthographes - mécanismes pour taper du texte à l'aide de signaux cérébraux.

Lorsqu'une personne voit le symbole dont elle a besoin à l'écran, après 300 millisecondes, un saut positif du potentiel électrique peut être détecté sur l'enregistrement de l'activité cérébrale. Lors de la détection du P300, le système envoie une commande pour imprimer le caractère correspondant.

Dans le même temps, l'algorithme ne peut pas détecter le potentiel à partir d'un moment en raison du niveau de bruit du signal par une activité électrique aléatoire. Par conséquent, le symbole doit être présenté plusieurs fois et les données obtenues doivent être moyennées.

En plus d'un changement de potentiel en une étape, la neurointerface peut rechercher des changements dans l'activité rythmique (c'est-à-dire oscillatoire) du cerveau provoqués par un certain événement. Lorsqu'un groupe suffisamment grand de neurones entre dans un rythme synchrone de fluctuations d'activité, cela peut être détecté sur le spectrogramme du signal sous la forme d'ERS (synchronisation événementielle). Si, au contraire, il y a désynchronisation des oscillations, alors le spectrogramme contient ERD (désynchronisation événementielle).

Au moment où une personne fait ou imagine simplement un mouvement de la main, la DRE est observée dans le cortex moteur de l'hémisphère opposé à une fréquence d'oscillation d'environ 10 à 20 hertz.

Ce modèle et d'autres peuvent être attribués au programme manuellement, mais ils sont souvent créés en travaillant avec chaque individu spécifique. Notre cerveau, comme les caractéristiques de son activité, est individuel et nécessite une adaptation du système à celui-ci.

Électrodes d'enregistrement

La plupart des neurointerfaces utilisent l'électroencéphalographie (EEG) pour enregistrer l'activité, c'est-à-dire une méthode non invasive de neuroimagerie, en raison de sa relative simplicité et sécurité. Les électrodes fixées à la surface de la tête enregistrent le changement du champ électrique provoqué par le changement du potentiel des dendrites après que le potentiel d'action a "traversé" la synapse.

Au moment où les ions positifs pénètrent dans la dendrite, un potentiel négatif se forme dans l'environnement environnant. À l'autre extrémité du neurone, des ions de même charge commencent à quitter la cellule, créant un potentiel positif à l'extérieur et l'espace entourant le neurone se transforme en dipôle. Le champ électrique se propageant à partir du dipôle est enregistré par une électrode.

Malheureusement, la méthode a plusieurs limites. Le crâne, la peau et les autres couches qui séparent les cellules nerveuses des électrodes, bien qu'ils soient conducteurs, ne sont pas assez bons pour ne pas déformer les informations sur le signal.

Les électrodes sont capables d'enregistrer uniquement l'activité totale de nombreux neurones voisins. La contribution principale au résultat de la mesure provient des neurones situés dans les couches supérieures du cortex, dont les processus sont perpendiculaires à sa surface, car ce sont eux qui créent le dipôle, le champ électrique dont le capteur peut le mieux capter.

Tout cela conduit à la perte d'informations des structures profondes et à une diminution de la précision, de sorte que le système est obligé de travailler avec des données incomplètes.

Les électrodes invasives, implantées en surface ou directement à l'intérieur du cerveau, permettent une précision beaucoup plus grande.

Si la fonction souhaitée est associée aux couches superficielles du cerveau (par exemple, une activité motrice ou sensorielle), alors l'implantation est limitée à la trépanation et à la fixation d'électrodes à la surface du cortex. Les capteurs lisent l'activité électrique totale de nombreuses cellules, mais ce signal n'est pas aussi déformé que dans l'EEG.

Si l'activité située plus profondément est importante, les électrodes sont insérées dans le cortex. Il est même possible d'enregistrer l'activité de neurones uniques à l'aide de microélectrodes spéciales. Malheureusement, la technique invasive présente un danger potentiel pour l'homme et n'est utilisée dans la pratique médicale que dans des cas extrêmes.

Cependant, on espère que la technique deviendra moins traumatisante à l'avenir. La société américaine Neuralink prévoit de mettre en œuvre l'idée d'introduire en toute sécurité des milliers d'électrodes flexibles fines sans percer le crâne, à l'aide d'un faisceau laser.

Plusieurs autres laboratoires travaillent sur des capteurs biodégradables qui enlèveront les électrodes du cerveau.

Banane ou orange?

L'enregistrement du signal n'est que la première étape. Ensuite, vous devez le «lire» pour en déterminer les intentions. Il y a deux façons possibles de décoder l'activité cérébrale: laissez l'algorithme sélectionner les caractéristiques pertinentes de l'ensemble de données lui-même, ou donnez au système une description des paramètres à rechercher.

Dans le premier cas, l'algorithme, non limité par des paramètres de recherche, classe le signal "brut" lui-même et trouve des éléments prédictifs d'intentions avec la probabilité la plus élevée. Si, par exemple, un sujet pense alternativement au mouvement avec sa main droite et sa main gauche, alors le programme est capable de trouver les paramètres de signal qui distinguent au maximum une option de l'autre.

Le problème avec cette approche est que les paramètres décrivant l'activité électrique du cerveau sont trop multidimensionnels et que les données sont trop bruyantes avec divers bruits.

Avec le deuxième algorithme de décodage, il est nécessaire de savoir à l'avance où et quoi chercher. Par exemple, dans l'exemple de l'orthographe P300 décrit ci-dessus, on sait que lorsqu'une personne voit un symbole, le potentiel électrique change d'une certaine manière. Nous apprenons au système à rechercher ces changements.

Dans une telle situation, la capacité de déchiffrer les intentions d'une personne est liée à notre connaissance de la façon dont les fonctions cérébrales sont codées dans l'activité neuronale. Comment telle ou telle intention ou état se manifeste-t-il dans le signal? Malheureusement, dans la plupart des cas, nous n'avons pas de réponse à cette question.

Des recherches neurobiologiques sur la fonction cognitive sont en cours, mais néanmoins, nous pouvons déchiffrer une très petite fraction des signaux. Le cerveau et la conscience restent pour nous une «boîte noire» pour le moment.

Alexander Kaplan, neurophysiologiste, docteur en sciences biologiques et fondateur du laboratoire de neurophysiologie et neurointerfaces de l'Université d'État Lomonosov de Moscou, qui a reçu la première subvention en Russie pour le développement d'une neurointerface pour la communication entre le cerveau et un ordinateur, dit que les chercheurs sont capables de déchiffrer automatiquement certaines intentions ou images humaines imaginées par eux sur la base de l'EEG …

Cependant, pour le moment, il n'y a pas plus d'une douzaine de telles intentions et images. Ce sont, en règle générale, des états associés à la relaxation et à la tension mentale ou à la représentation des mouvements des parties du corps. Et même leur reconnaissance se produit avec des erreurs: par exemple, pour établir par l'EEG qu'une personne a l'intention de serrer sa main droite dans un poing, même dans les meilleurs laboratoires, cela n'est possible que dans 80 à 85% du nombre total de tentatives.

Et si vous essayez de comprendre à partir de l'EEG si une personne imagine une banane ou une orange, le nombre de réponses correctes ne dépassera que légèrement le niveau de devinettes aléatoires.

Le plus triste est qu'il n'a pas été possible d'améliorer la fiabilité des systèmes de neurointerface dans la reconnaissance des intentions humaines par EEG et d'élargir la liste de ces intentions pendant plus de 15 ans, malgré les progrès significatifs dans le développement d'algorithmes et de technologie informatique réalisés au cours de la même période.

Apparemment, l'EEG ne reflète qu'une petite partie de l'activité mentale d'une personne. Par conséquent, les systèmes de neurointerface doivent être abordés avec des attentes modérées et clairement définis les domaines de leur application réelle.

Perdu dans la traduction

Pourquoi ne pouvons-nous pas créer un système qui fait ce que le cerveau peut facilement faire? En bref, le fonctionnement du cerveau est trop complexe pour nos capacités d'analyse et de calcul.

Premièrement, nous ne connaissons pas le «langage» dans lequel le système nerveux communique. Outre les séries d'impulsions, il est caractérisé par de nombreuses variables: caractéristiques des voies et des cellules elles-mêmes, réactions chimiques survenant au moment du transfert d'informations, travail des réseaux de neurones voisins et d'autres systèmes corporels.

Outre le fait que la «grammaire» de ce «langage» est complexe en elle-même, elle peut différer dans différentes paires de cellules nerveuses. La situation est aggravée par le fait que les règles de communication, ainsi que les fonctions des cellules et les relations entre elles, sont toutes très dynamiques et en constante évolution sous l'influence de nouveaux événements et conditions. Cela augmente de façon exponentielle la quantité d'informations à prendre en compte.

Les données qui décrivent pleinement l'activité cérébrale noyeront simplement tout algorithme qui entreprend de l'analyser. Par conséquent, décoder les intentions, les souvenirs, les mouvements est une tâche pratiquement insoluble.

Le deuxième obstacle est que nous ne savons pas grand-chose des fonctions cérébrales mêmes que nous essayons de détecter. Qu'est-ce que la mémoire ou l'image visuelle, de quoi sont-elles faites? La neurophysiologie et la psychologie tentent de répondre à ces questions depuis longtemps, mais jusqu'à présent, il y a peu de progrès dans la recherche.

Les fonctions les plus simples telles que les fonctions motrices et sensorielles présentent l'avantage en ce sens, car elles sont mieux comprises. Par conséquent, les interfaces neuronales actuellement disponibles interagissent principalement avec elles.

Ils sont capables de reconnaître les sensations tactiles, le mouvement imaginaire d'un membre, la réponse à la stimulation visuelle et les réactions simples à des événements environnementaux tels qu'une réponse à une erreur ou un décalage entre le stimulus attendu et le stimulus réel. Mais une activité nerveuse plus élevée reste un grand secret pour nous aujourd'hui.

Communication bidirectionnelle

Jusqu'à présent, nous n'avons discuté que de la situation de lecture unidirectionnelle de l'information sans aucune influence en arrière. Cependant, aujourd'hui, il existe déjà une technologie pour transmettre des signaux d'un ordinateur au cerveau - CBI (interface ordinateur-cerveau). Il rend le canal de communication de la neurointerface bidirectionnel.

Les informations (par exemple, le son, les sensations tactiles et même les données sur le fonctionnement du cerveau) pénètrent dans l'ordinateur, sont analysées et, par stimulation des cellules du système nerveux central ou périphérique, sont transmises au cerveau. Tout cela peut se produire en contournant complètement les organes naturels de la perception et est utilisé avec succès pour les remplacer.

Selon Alexander Kaplan, il n'y a actuellement plus de restrictions théoriques pour équiper une personne avec des «organes» sensoriels artificiels connectés directement aux structures cérébrales. De plus, ils sont activement introduits dans la vie quotidienne d'une personne, par exemple pour remplacer les organes sensoriels naturels perturbés.

Pour les personnes malentendantes, des implants dits cochléaires sont déjà disponibles: des micropuces qui combinent un microphone avec des récepteurs auditifs. Les tests d'implants rétiniens pour la restauration de la vision ont commencé.

Selon Kaplan, il n'y a pas de limitations techniques pour connecter d'autres capteurs au cerveau qui répondent aux ultrasons, aux changements de radioactivité, de vitesse ou de pression.

Le problème est que ces technologies doivent être entièrement basées sur notre connaissance du fonctionnement du cerveau. Lesquels, comme nous l'avons déjà découvert, sont plutôt limités.

Le seul moyen de contourner ce problème, selon Kaplan, est de créer un canal de communication fondamentalement nouveau, avec son propre langage de communication, et d'apprendre non seulement à l'ordinateur, mais aussi au cerveau à reconnaître de nouveaux signaux.

De tels développements ont déjà commencé. Par exemple, dans le laboratoire de physique appliquée de l'Université Johns Hopkins il y a plusieurs années, ils ont testé une main bionique capable de transmettre des informations tactiles au cerveau.

Lorsqu'elles touchent les capteurs de la main artificielle, les électrodes stimulent les voies du système nerveux périphérique, qui transmettent alors le signal aux zones sensorielles du cerveau. Une personne apprend à reconnaître les signaux entrants comme différents types de toucher. Ainsi, au lieu d'essayer de reproduire le système tactile de signaux qui est naturel pour les humains, un nouveau canal et un nouveau langage de communication sont créés.

Cependant, cette voie de développement est limitée par le nombre de nouveaux canaux que nous pouvons créer et par leur caractère informatif pour le cerveau, explique Alexander Kaplan.

Le futur

Kaplan pense qu'il n'y a pas de nouveau moyen pour le moment de développer des technologies de neurointerface. Selon lui, la possibilité même d'une interface pour connecter le cerveau et un ordinateur a été découverte dans les années 70 du siècle dernier, et les principes du cerveau, sur lesquels se fondent les développements actuels, ont été décrits il y a une trentaine d'années, et depuis lors, de nouvelles idées ne sont pratiquement pas apparues.

Par exemple, le potentiel P300 maintenant largement utilisé a été découvert dans les années 1960, l'imagerie motrice dans les années 1980-1990 et la négativité de l'inadéquation dans les années 1970).

Les scientifiques nourrissaient autrefois l'espoir de pouvoir établir un contact informationnel plus profond entre le cerveau et la technologie du processeur, mais aujourd'hui, il est devenu clair qu'ils ne se sont pas réalisés.

Cependant, dit Kaplan, il est devenu clair que les neurointerfaces peuvent être mises en œuvre à des fins médicales. Selon le scientifique, le développement des neurointerfaces passe désormais dans une large mesure par l'introduction de la technologie dans la sphère clinique.

Les scientifiques nourrissaient autrefois l'espoir de pouvoir établir un contact informationnel plus profond entre le cerveau et la technologie du processeur, mais aujourd'hui, il est devenu clair qu'ils ne se sont pas réalisés.

Cependant, dit Kaplan, il est devenu clair que les neurointerfaces peuvent être mises en œuvre à des fins médicales. Selon le scientifique, le développement des neurointerfaces passe désormais dans une large mesure par l'introduction de la technologie dans la sphère clinique.

Cependant, grâce à la recherche sur le cerveau et aux progrès technologiques, les neurointerfaces d'aujourd'hui sont capables de ce qui paraissait autrefois impraticable. Nous ne savons pas avec certitude ce qui se passera dans 30, 50 ou 100 ans. L'historien des sciences Thomas Kuhn a avancé l'idée que le développement de la science est un cycle: les périodes de stagnation sont remplacées par des changements paradigmatiques et des révolutions scientifiques qui suivent. Il est fort possible qu'à l'avenir, nous ayons une révolution qui sortira le cerveau de la boîte noire. Et elle viendra du côté le plus inattendu.

Maria Ermolova

Recommandé: