Penser Comme Une Personne: Que Se Passera-t-il Si Vous Dotez La Machine De La Théorie De La Conscience - Vue Alternative

Table des matières:

Penser Comme Une Personne: Que Se Passera-t-il Si Vous Dotez La Machine De La Théorie De La Conscience - Vue Alternative
Penser Comme Une Personne: Que Se Passera-t-il Si Vous Dotez La Machine De La Théorie De La Conscience - Vue Alternative

Vidéo: Penser Comme Une Personne: Que Se Passera-t-il Si Vous Dotez La Machine De La Théorie De La Conscience - Vue Alternative

Vidéo: Penser Comme Une Personne: Que Se Passera-t-il Si Vous Dotez La Machine De La Théorie De La Conscience - Vue Alternative
Vidéo: Si vous oubliez le sujet de cette vidéo, Il est peut-être trop tard. 2024, Juillet
Anonim

Le mois dernier, une équipe de joueurs d'IA autodidactes a subi une défaite spectaculaire contre des joueurs professionnels de l'e-sport. Le match spectacle, qui a eu lieu dans le cadre du championnat du monde Dota 2 The International, a montré que la réflexion stratégique de l'équipe permet toujours à une personne de prendre le dessus sur une voiture.

Les IA impliquées étaient plusieurs algorithmes développés par OpenAI, dont Elon Musk est l'un des fondateurs. Un collectif d'acteurs numériques, appelé OpenAI Five, a appris à jouer à Dota 2 par eux-mêmes, par essais et erreurs, en se faisant concurrence.

Contrairement au même jeu d'échecs ou de logique de plateau Go, le jeu multijoueur populaire et à croissance rapide Dota 2 est considéré comme un domaine beaucoup plus sérieux pour tester la force de l'intelligence artificielle. La difficulté globale du jeu n'est qu'un facteur. Il ne suffit pas de cliquer très rapidement avec la souris et d'envoyer des commandes au personnage que vous contrôlez. Pour gagner, il est nécessaire d'avoir une intuition et une compréhension de ce à quoi s'attendre de l'adversaire au moment suivant, ainsi que d'agir de manière adéquate en fonction de cet ensemble de connaissances afin de se réunir avec des efforts communs vers un objectif commun - la victoire. L'ordinateur ne dispose pas de cet ensemble de fonctionnalités.

À ce jour, même l'algorithme informatique d'apprentissage en profondeur le plus remarquable n'a pas la réflexion stratégique nécessaire pour comprendre les objectifs des tâches de son adversaire, qu'il s'agisse d'une autre IA ou d'un humain.

Selon Wang, pour que l'IA réussisse, elle doit avoir une compétence de communication profonde, qui provient de la caractéristique cognitive la plus importante d'une personne - la présence de l'intelligence.

Modèle d'état mental comme simulation

Vidéo promotionelle:

À l'âge de quatre ans, les enfants commencent généralement à comprendre un trait social fondamental: leur esprit est différent de celui des autres. Ils commencent à comprendre que chacun a ce en quoi il croit, ses désirs, ses émotions et ses intentions. Et, surtout, en s'imaginant à la place des autres, ils peuvent commencer à prédire le comportement futur de ces personnes et à les expliquer. D'une certaine manière, leurs cerveaux commencent à créer de multiples simulations d'eux-mêmes en eux-mêmes, se substituant à d'autres personnes et se plaçant dans un environnement différent.

Le modèle de l'état mental est important pour se comprendre en tant que personne et joue également un rôle important dans l'interaction sociale. Comprendre les autres est la clé d'une communication efficace et de la réalisation d'objectifs communs. Cependant, cette capacité peut également être le moteur des fausses croyances - des idées qui nous éloignent de la vérité objective. Dès que la capacité d'utiliser un modèle d'état mental est altérée, par exemple, cela se produit dans l'autisme, alors les compétences «humaines» naturelles, telles que la capacité d'expliquer et d'imaginer, se détériorent également.

Selon le Dr Alan Winfield, professeur de robotique à l'Université de l'ouest de l'Angleterre, le modèle de l'état mental ou «théorie de l'esprit» est une caractéristique clé qui permettra un jour à l'IA de «comprendre» les gens, les choses et autres robots.

Au lieu de méthodes d'apprentissage automatique, dans lesquelles plusieurs couches de réseaux de neurones extraient des informations individuelles et «étudient» d'énormes bases de données, Winston suggère d'adopter une approche différente. Plutôt que de s'appuyer sur l'apprentissage, Winston suggère de pré-programmer l'IA avec un modèle interne d'elle-même et de l'environnement qui répondra à de simples questions «et si?».

Par exemple, imaginez que deux robots se déplacent le long d'un couloir étroit, leur IA peut simuler les résultats d'autres actions qui empêcheront leur collision: tourner à gauche, à droite ou continuer tout droit. Ce modèle interne agira essentiellement comme un «mécanisme de conséquence», agissant comme une sorte de «bon sens» qui aidera à diriger l'IA vers les prochaines actions correctes en prédisant l'évolution future de la situation.

Dans une étude publiée plus tôt cette année, Winston a démontré un prototype de robot capable d'atteindre de tels résultats. Anticipant le comportement des autres, le robot est passé avec succès dans le couloir sans collision. En fait, ce n'est pas surprenant, note l'auteur, mais le robot «attentif», utilisant une approche simulée pour résoudre le problème, a mis 50% de plus pour terminer le couloir. Néanmoins, Winston a prouvé que sa méthode de simulation interne fonctionne: «C'est un point de départ très puissant et intéressant dans le développement de la théorie de l'intelligence artificielle», a conclu le scientifique.

Winston espère que l'intelligence artificielle finira par acquérir la capacité de décrire et de reproduire mentalement des situations. Un modèle interne d'elle-même et des autres permettra à une telle IA de simuler différents scénarios et, plus important encore, de définir des buts et objectifs spécifiques pour chacun d'entre eux.

Ceci est très différent des algorithmes d'apprentissage en profondeur, qui, en principe, ne sont pas capables d'expliquer pourquoi ils sont arrivés à telle ou telle conclusion lors de la résolution d'un problème. Le modèle de la boîte noire de l'apprentissage profond est en fait le véritable problème de la confiance dans de tels systèmes. Ce problème peut devenir particulièrement aigu, par exemple, lors du développement de robots infirmiers pour les hôpitaux ou pour les personnes âgées.

Une IA armée d'un modèle d'état mental pourrait se mettre à la place de ses maîtres et comprendre correctement ce que l'on attend d'elle. Ensuite, il pourrait identifier des solutions appropriées et, après avoir expliqué ces décisions à la personne, il s'acquitterait déjà de la tâche qui lui était confiée. Moins il y a d'incertitude dans les décisions, plus il y aura de confiance dans ces robots.

Modèle d'état mental dans un réseau de neurones

DeepMind adopte une approche différente. Au lieu de préprogrammer un algorithme du mécanisme des conséquences, ils ont développé plusieurs réseaux de neurones qui présentent une similitude avec un modèle de comportement psychologique collectif.

L'algorithme d'IA "ToMnet" peut apprendre des actions en observant d'autres réseaux de neutrons. ToMNet lui-même est un collectif de trois réseaux de neurones: le premier est basé sur les particularités de choisir d'autres IA en fonction de leurs dernières actions. La seconde forme un concept général de l'humeur actuelle - leurs croyances et intentions à un certain moment. Le résultat collectif du travail de deux réseaux de neurones est reçu par le troisième, qui prédit d'autres actions de l'IA en fonction de la situation. Comme pour l'apprentissage en profondeur, ToMnet devient plus efficace à mesure qu'il acquiert de l'expérience en suivant les autres.

Dans une expérience, ToMnet a «observé» trois agents IA manœuvrer dans une salle numérique, collectant des boîtes colorées. Chacune de ces IA avait sa propre particularité: l'une était "aveugle" - ne pouvait pas déterminer la forme et l'emplacement dans la pièce. L'autre était un «sclérotique»: il ne se souvenait plus de ses derniers pas. Le troisième pouvait à la fois voir et se souvenir.

Après la formation, ToMnet a commencé à prédire les préférences de chaque IA en observant ses actions. Par exemple, les «aveugles» ne se déplaçaient constamment que le long des murs. ToMnet s'en souvenait. L'algorithme a également été en mesure de prédire correctement le comportement futur de l'IA et, plus important encore, de comprendre quand l'IA a rencontré une fausse représentation de l'environnement.

Dans un test, une équipe de scientifiques a programmé une IA pour la «myopie» et a changé la disposition d'une pièce. Les agents à vision normale se sont rapidement adaptés à la nouvelle configuration, mais l'homme myope a continué à suivre ses itinéraires d'origine, croyant à tort qu'il était toujours dans l'ancien environnement. ToMnet a rapidement noté cette fonctionnalité et a prédit avec précision le comportement de l'agent, se mettant à sa place.

Selon le Dr Alison Gopnik, psychologue du développement à l'Université de Californie à Berkeley, qui n'a pas participé à ces études, mais qui était familier avec les résultats, ces résultats montrent que les réseaux de neurones ont une capacité étonnante à acquérir diverses compétences par eux-mêmes, en observant les autres. Dans le même temps, selon l'expert, il est encore très tôt pour dire que ces IA ont développé un modèle artificiel de l'état mental.

Selon le Dr Josh Tenebaum du Massachusetts Institute of Technology, qui n'était pas non plus impliqué dans l'étude, la «compréhension» de ToMnet est fortement liée au contexte de l'environnement d'apprentissage - la même pièce et des agents IA spécifiques dont la tâche était de collecter des boîtes. Cette contrainte dans un certain cadre rend ToMnet moins efficace pour prédire le comportement dans des environnements radicalement nouveaux, par opposition aux mêmes enfants qui peuvent s'adapter à de nouvelles situations. L'algorithme, selon le scientifique, ne permettra pas de modéliser les actions d'une IA ou d'une personne complètement différente.

En tout cas, les travaux de Winston et DeepMind démontrent que les ordinateurs commencent à montrer des rudiments de «compréhension» les uns des autres, même si cette compréhension n'est encore que rudimentaire. Et à mesure qu'ils continuent à améliorer cette compétence, à se comprendre de mieux en mieux, il viendra un moment où les machines pourront comprendre la complexité et la complexité de notre propre conscience.

Nikolay Khizhnyak

Recommandé: