Les Machines Pourraient-elles Avoir Une Conscience, Selon Les Neuroscientifiques? Il Semble Que Oui - Vue Alternative

Table des matières:

Les Machines Pourraient-elles Avoir Une Conscience, Selon Les Neuroscientifiques? Il Semble Que Oui - Vue Alternative
Les Machines Pourraient-elles Avoir Une Conscience, Selon Les Neuroscientifiques? Il Semble Que Oui - Vue Alternative

Vidéo: Les Machines Pourraient-elles Avoir Une Conscience, Selon Les Neuroscientifiques? Il Semble Que Oui - Vue Alternative

Vidéo: Les Machines Pourraient-elles Avoir Une Conscience, Selon Les Neuroscientifiques? Il Semble Que Oui - Vue Alternative
Vidéo: Qu’est-ce que la conscience et les machines pourraient-elles l’acquérir ? - STANISLAS DEHAENE 2024, Mai
Anonim

Autant le réalisateur veut vous le faire croire, le protagoniste du film 2015 d'Andrew Garland Out of the Machine n'est pas Caleb, un jeune programmeur chargé d'évaluer la conscience des machines. Non, le personnage principal est Ava, une incroyable IA humanoïde, d'apparence naïve et mystérieuse à l'intérieur. Comme la plupart des films de ce genre, Out of the Machine laisse le spectateur répondre lui-même à la question: Ava était-elle vraiment consciente? Dans le même temps, le film évite habilement la question épineuse à laquelle les films de haut niveau sur l'IA ont tenté de répondre: qu'est-ce que la conscience et un ordinateur peut-il l'avoir?

Les producteurs hollywoodiens ne sont pas les seuls à essayer de répondre à cette question. Alors que l'intelligence artificielle évolue à une vitesse vertigineuse - non seulement surpassant ce que les humains peuvent faire dans des jeux comme DOTA 2 et Go, mais sans l'aide humaine - cette question est de nouveau soulevée dans des cercles de plus en plus étroits.

La conscience va-t-elle percer dans les voitures?

Cette semaine, la prestigieuse revue Science a publié une revue des chercheurs en sciences cognitives les Drs Stanislas Dehane, Hokwan Lau et Sid Quider du Collège français de l'UCLA et de l'Université de recherche PSL. Dans ce document, les scientifiques ont déclaré: pas encore, mais la voie à suivre est claire.

Cause? La conscience est «absolument calculable», disent les auteurs, car elle provient de types spécifiques de traitement de l'information qui sont rendus possibles par le matériel du cerveau.

Il n'y a pas de bouillon magique, pas d'étincelle divine - pas même une composante empirique («à quoi cela ressemble-t-elle d'avoir la conscience?») Est nécessaire pour ancrer la conscience.

Si la conscience provient uniquement de calculs dans notre organe d'un kilogramme et demi, alors équiper des machines d'une propriété similaire n'est qu'une question de traduction de la biologie en code.

Vidéo promotionelle:

Tout comme les puissantes méthodes d'apprentissage automatique d'aujourd'hui sont largement empruntées aux neurosciences, nous pouvons atteindre une conscience artificielle en étudiant les structures de notre propre cerveau qui génèrent la conscience et en mettant en œuvre ces idées sous forme d'algorithmes informatiques.

Du cerveau au robot

Il ne fait aucun doute que le domaine de l'IA a reçu un grand coup de pouce de l'étude de notre propre cerveau, à la fois en forme et en fonction.

Par exemple, les réseaux de neurones profonds, les algorithmes architecturaux qui ont formé la base d'AlphaGo, sont modélisés sur les réseaux de neurones biologiques multicouches organisés dans notre cerveau.

L'apprentissage par renforcement, un type "d'apprentissage" dans lequel l'IA apprend à partir de millions d'exemples, est enraciné dans des siècles de technique de dressage de chiens: si un chien fait quelque chose de bien, il obtient une récompense; sinon elle devra répéter.

En ce sens, traduire l'architecture de la conscience humaine en machines apparaît comme un simple pas vers la conscience artificielle. Il n'y a qu'un seul gros problème.

«Personne dans l'IA ne travaille sur la construction de machines conscientes parce que nous n'avons tout simplement rien à résoudre. Nous ne savons tout simplement pas quoi faire », déclare le Dr Stuart Russell.

Conscience multicouche

La partie la plus difficile à surmonter avant de commencer à construire des machines à penser est de comprendre ce qu'est la conscience.

Pour Dehene et ses collègues, la conscience est une construction à plusieurs niveaux avec deux «dimensions»: C1, des informations qui sont stockées toutes faites dans l'esprit, et C2, la capacité de recevoir et de suivre des informations sur soi-même. Les deux sont importants pour la conscience et ne peuvent exister l'un sans l'autre.

Disons que vous conduisez une voiture et qu'une balise se déclenche pour vous avertir d'un faible niveau d'essence restant. La perception de l'indicateur est C1, une représentation mentale avec laquelle on peut interagir: on le remarque, on agit (faire le plein) et on en parle plus tard ("L'essence s'est épuisée à la descente, chanceux - roulé").

«Le premier sens que nous voulons séparer de la conscience est la notion d'accessibilité globale», explique Dehané. Lorsque vous prenez conscience d'un mot, tout votre cerveau le comprend, c'est-à-dire que vous pouvez transmettre cette information à travers diverses modalités.

Mais C1 n'est pas qu'un "album mental". Cette dimension est toute une architecture qui permet au cerveau d'attirer de multiples modalités d'information de nos sens ou, par exemple, de souvenirs d'événements connexes.

Contrairement au traitement subconscient, qui repose souvent sur certains «modules» compétents pour résoudre un ensemble spécifique de tâches, C1 est un espace de travail global qui permet au cerveau d'intégrer des informations, de prendre des décisions sur l'action et de les suivre.

Par «conscience», nous entendons une certaine représentation, à un certain moment dans le temps, qui se bat pour accéder à l'espace de travail mental et gagne. Les gagnants sont partagés entre les différents circuits informatiques du cerveau et maintenus au centre de l'attention tout au long du processus de prise de décision qui détermine le comportement.

La conscience C1 est stable et globale - tous les circuits cérébraux connectés sont impliqués, expliquent les auteurs.

Pour une voiture sophistiquée comme la voiture intelligente C1, il s'agit de la première étape vers la résolution d'un problème imminent tel qu'une faible consommation de carburant. Dans cet exemple, l'indicateur lui-même est un signal subconscient: lorsqu'il s'allume, tous les autres processus de la voiture restent non informés, et la voiture - même lorsqu'elle est équipée des derniers outils de traitement visuel - se précipite sans hésitation devant la station-service.

Avec C1, le réservoir de carburant informera l'ordinateur de la voiture (permettant à l'indicateur d'entrer dans «l'esprit conscient» de la voiture) afin qu'il active à son tour le GPS pour trouver la station la plus proche.

«Nous pensons que la machine traduira cela en un système qui extraira les informations de tous les modules disponibles et les rendra disponibles à toute autre unité de traitement qui peut utiliser ces informations», déclare Dehane. "C'est le premier sens de la conscience."

Méta-cognition

En un sens, C1 reflète la capacité de l'esprit à extraire des informations de l'extérieur. C2 entre en introspective.

Les auteurs définissent le deuxième réseau de conscience, C2, comme "méta-cognition": il reflète lorsque vous apprenez ou percevez quelque chose, ou faites simplement une erreur. («Je pense que j'aurais dû faire le plein à la dernière station, mais j'ai oublié»). Cette dimension reflète le lien entre la conscience et le sentiment de soi.

C2 est le niveau de conscience qui vous permet de vous sentir plus ou moins confiant pour prendre une décision. En termes de calcul, c'est un algorithme qui déduit la probabilité qu'une décision (ou un calcul) soit correct, même s'il est souvent perçu comme un «sixième sens».

C2 lance également des racines dans la mémoire et la curiosité. Ces algorithmes d'autocontrôle nous permettent de savoir ce que nous savons et ce que nous ne savons pas - il s'agit de «méta-mémoire» qui vous aide à trouver le bon mot «sur le bout de la langue». Observer ce que nous savons (ou ne savons pas) est particulièrement important pour les enfants, dit Dehané.

«Il est absolument essentiel que les jeunes enfants gardent une trace de ce qu'ils savent pour apprendre et être curieux», dit-il.

Ces deux aspects de la conscience fonctionnent ensemble: C1 tire des informations pertinentes dans notre espace mental de travail (en rejetant d'autres idées ou solutions «possibles»), et C2 aide à réfléchir à long terme sur la question de savoir si la pensée consciente a conduit à un résultat ou une réponse utile.

Pour revenir à l'exemple de l'indicateur de bas niveau de carburant, C1 permet à la voiture de résoudre le problème instantanément - ces algorithmes globalisent les informations et la voiture apprend le problème.

Mais pour résoudre le problème, la voiture aura besoin d'un catalogue de «capacités cognitives» - la conscience de soi des ressources facilement disponibles, comme une carte GPS des stations-service.

«Ce type de voiture de découverte de soi est ce que nous appelons travailler avec la C2», déclare Dehane. Étant donné que le signal est disponible dans le monde entier et est surveillé comme si la voiture se regardait de côté, la voiture s'occupera de l'indicateur de bas niveau de carburant et se comportera de la même manière qu'une personne - cela réduira la consommation de carburant et trouvera une station-service.

«La plupart des systèmes d'apprentissage automatique modernes n'ont aucune maîtrise de soi», notent les auteurs.

Mais leur théorie semble être sur la bonne voie. Dans ces exemples où un système d'auto-observation a été mis en œuvre - sous la forme d'une structure d'algorithmes ou d'un réseau séparé - les IA ont développé «des modèles internes de nature métacognitive, qui ont permis à l'agent de développer une compréhension (limitée, implicite, pratique) de lui-même».

Aux machines conscientes

Une voiture avec les modèles C1 et C2 se comportera-t-elle comme si elle était consciente? Il est très probable qu'une voiture intelligente «saura» qu'elle voit quelque chose, exprimera sa confiance en elle, la communiquera aux autres et trouvera la meilleure solution au problème. Si ses mécanismes d'introspection tombent en panne, il peut également éprouver des «hallucinations» ou des illusions visuelles que les humains ont.

Grâce à C1, il peut utiliser les informations dont il dispose et les utiliser de manière flexible, et grâce à C2, il connaîtra les limites de ce qu'il sait, dit Dehane. «Je pense que cette machine aura une conscience», et pas seulement comme ça aux gens.

Si vous avez le sentiment que la conscience est bien plus qu'un échange global d'informations et d'auto-observation, vous n'êtes pas seul.

"Cette définition purement fonctionnelle de la conscience peut laisser certains lecteurs insatisfaits", admettent les auteurs. «Mais nous essayons de faire un pas radical, en simplifiant peut-être le problème. La conscience est une propriété fonctionnelle, et au fur et à mesure que nous ajoutons des fonctions aux machines, ces propriétés caractériseront à un moment donné ce que nous entendons par conscience », conclut Dehane.

Ilya Khel

Recommandé: