Comment Créer Un Robot Qui Veut Changer Le Monde? - Vue Alternative

Table des matières:

Comment Créer Un Robot Qui Veut Changer Le Monde? - Vue Alternative
Comment Créer Un Robot Qui Veut Changer Le Monde? - Vue Alternative

Vidéo: Comment Créer Un Robot Qui Veut Changer Le Monde? - Vue Alternative

Vidéo: Comment Créer Un Robot Qui Veut Changer Le Monde? - Vue Alternative
Vidéo: COMMENT CRÉER SON PREMIER ROBOT ? 2024, Septembre
Anonim

L'informaticien Christoph Solge tente d'éliminer le besoin de règles régissant le comportement des robots. Sa stratégie est de leur donner un objectif: nous rendre plus puissants. Christophe travaille au Game Innovation Lab de l'Université de New York. Sasha Maslov a interviewé Sold pour Quanta Magazine, dont nous apprenons qu'il ne vaut peut-être pas la peine d'essayer de retenir le flux imparable de la singularité technologique.

Les célèbres Trois lois de la robotique d'Isaac Asimov - limitant le comportement des androïdes et des automates pour protéger l'humanité - étaient également inachevées. Ces lois sont apparues pour la première fois dans l'histoire d'Asimov en 1942, puis dans des œuvres classiques comme "I, Robot" et ressemblent à ceci:

1. Un robot ne peut pas nuire à une personne ou, par son inaction, permettre que du mal soit fait à une personne.

2. Le robot doit obéir aux ordres donnés par les humains, s'ils ne contredisent pas la Première Loi.

3. Un robot doit défendre son existence, si cette protection ne contredit pas la première ou la deuxième loi.

Bien sûr, dans ces lois, on peut trouver de nombreuses contradictions et lacunes (qui, en fait, Azimov lui-même a utilisé). À l'ère actuelle des logiciels avancés avec apprentissage automatique et robotique autonome, définir et mettre en œuvre l'éthique de fer de l'intelligence artificielle est devenu un défi pressant pour des organisations telles que le Machine Intelligence Research Institute et OpenAI.

Christoph Salge a adopté une approche différente. Au lieu d'imposer des définitions philosophiques descendantes de la façon dont les agents artificiels devraient ou ne devraient pas se comporter, Salge et son collègue Daniel Polani explorent la voie ascendante, ou «ce que le robot devrait faire en premier», comme ils l'écrivaient dans son article "L'autonomisation comme substitut aux trois lois de la robotique". Empowerment, un concept né à l'intersection de la cybernétique et de la psychologie, décrit la motivation intrinsèque d'un agent à résister et à travailler dans un environnement en même temps. «En tant qu'organisme, il veut survivre. Il veut laisser une marque sur le monde », explique Salge. L'aspirateur Roomba, programmé pour rechercher une station de charge lorsque les batteries sont faibles, est un exemple rudimentaire de «responsabilisé»: pour continuer à fonctionner dans le monde,il doit recevoir une charge et continuer sa propre existence, c'est-à-dire survivre.

L'autonomisation peut sembler être une recette pour le résultat même que craignent les partisans d'une intelligence artificielle sûre comme Nick Bostrom: un système autonome puissant, préoccupé uniquement par l'intérêt personnel et devenant fou dans le processus. Mais Salge, qui étudie les interactions sociales homme-machine, demande: Et si un agent habilité «donne aussi du pouvoir à un autre? Le robot doit non seulement vouloir rester en état de fonctionnement - il doit également vouloir soutenir son partenaire humain."

Vidéo promotionelle:

Solge et Polanyi ont réalisé que la théorie de l'information offrait un moyen de traduire cette expansion mutuelle en un cadre mathématique pour un agent artificiel non philosophe. «L'un des inconvénients des trois lois de la robotique est qu'elles sont basées sur le langage et que le langage est très ambigu», explique Salge. "Nous essayons de trouver quelque chose qui peut réellement être fait."

Certains technologues pensent que l'IA est une menace majeure, voire catastrophique, pour l'existence humaine. Et toi?

Je vais m'abstenir. Je crois donc vraiment qu'il y a maintenant une peur des robots et l'influence croissante de l'IA. Mais je pense qu'à court terme, nous serons probablement plus préoccupés par l'éventuel changement d'emploi, le processus décisionnel, la perte de la démocratie, la perte de la vie privée. Je ne sais pas dans quelle mesure une IA imparable émergera de sitôt. Mais même si l'IA doit contrôler le système de santé et émettre des ordonnances, nous devons réfléchir aux problèmes éthiques qui se posent au cours de son fonctionnement.

Comment le concept d'autonomisation peut-il nous aider à relever ces défis?

Je pense que l'idée d'autonomisation remplit un créneau. Elle ne laissera pas l'agent laisser la personne mourir, mais une fois que vous pourrez vous en tenir à ce seuil, elle soutiendra l'intention de créer des opportunités supplémentaires pour la personne d'exprimer et d'influencer le monde. Dans l'un des livres d'Asimov, les robots finiront simplement par mettre tous les humains dans des conteneurs sûrs. Ce ne serait pas souhaitable. Si notre capacité à influencer le monde continue de s'améliorer, je pense que ce sera un objectif beaucoup plus intéressant à atteindre.

Vous avez testé vos idées d'agent virtuel dans un environnement de jeu vidéo. Qu'est-il arrivé?

L'agent, motivé par ses propres droits étendus, évitera le projectile et ne tombera pas dans la fosse, en général, évitera toute situation qui pourrait entraîner sa perte de mobilité, la mort ou des dommages de manière à réduire son opérabilité. Il va simplement s'accrocher.

En collaboration avec un joueur humain qui est également doté de droits renforcés, nous avons vu que le robot virtuel maintiendra une certaine distance pour ne pas gêner les mouvements humains. Il ne vous bloquera pas, il ne restera pas dans l'allée pour que vous ne puissiez pas passer. Il restera au plus près de vous pour vous aider. Cela conduit à un comportement dans lequel il peut à la fois prendre l'initiative et suivre celui de quelqu'un d'autre.

Par exemple, nous avons créé un scénario dans lequel nous avions une barrière laser dangereuse pour les humains, mais sans danger pour un robot. Si la personne dans ce jeu s'approche des lasers, le robot est plus incité à bloquer le laser. Le stimulus est renforcé lorsque la personne se tient directement devant la barrière, comme si elle avait l'intention de la franchir. Et le robot bloque en fait le laser, debout devant la personne.

Ces agents ont-ils manifesté un comportement non intentionnel similaire à ce qui découle des trois lois du livre d'Asimov?

Le comportement était bon au début. Par exemple, un robot virtuel a intercepté des adversaires qui tentaient de vous tuer. De temps en temps, il sautait sous une balle si c'était le seul moyen de vous sauver. Mais ce qui nous a surpris surtout dès le début, c'est qu'il avait aussi très peur de la personne.

La raison en est due à son modèle «myope»: en fait, il analyse comment des séquences de certaines actions en deux ou trois étapes peuvent affecter le monde, à la fois pour vous et pour lui. Par conséquent, dans la première étape, nous avons programmé que le joueur agisse de manière aléatoire. Mais dans la pratique, cela s'est traduit par le fait que l'agent traitait la personne comme une sorte de psychopathe, qui pouvait, par exemple, tirer sur l'agent à tout moment. Par conséquent, l'agent devait choisir très, très soigneusement la position dans laquelle la personne ne pouvait pas le tuer.

Nous devions résoudre ce problème, nous avons donc modélisé l'hypothèse dite de confiance. Fondamentalement, l'agent compagnon agit sur l'hypothèse que la personne ne choisira que les actions qui ne limiteront pas les droits étendus de l'agent lui-même - peut-être est-ce un modèle plus approprié pour le compagnon.

Nous avons également remarqué que si vous aviez, disons, 10 points de santé dans le jeu, le compagnon ne se souciait pas vraiment de savoir si vous perdiez huit ou neuf de ces points - il pouvait même vous tirer dessus une fois, juste pour le plaisir. Et puis nous avons réalisé qu'il y avait un fossé entre le monde dans lequel nous vivons et le modèle dans un jeu vidéo. Dès que nous avons modélisé les limitations de capacité causées par la perte de santé, le problème a disparu. Il pourrait également être résolu en créant un modèle qui n'était pas si myope, qui pourrait calculer les actions à quelques pas de plus dans le futur. Si l'agent pouvait regarder plus loin dans l'avenir, il verrait qu'avoir plus de points de santé pourrait être bénéfique pour les événements futurs.

Compte tenu du fait que la modification du nombre de points de vie n'affecte en rien mes droits étendus, l'agent décide: "Je lui tire dessus, je ne tire pas - quelle est la différence?" Et parfois ça tire. Ce qui, bien sûr, est un problème. Je ne veux pas de coups aléatoires sur les joueurs. Nous avons ajouté un correctif pour rendre le robot virtuel un peu plus préoccupé par votre état que le sien.

Comment rendre ces concepts précis?

Si nous considérons les agents comme des systèmes de contrôle, ils peuvent être décomposés en éléments d'information: quelque chose se passe dans le monde et d'une manière ou d'une autre vous concerne. Nous ne parlons pas d'informations comme des choses que vous percevez, mais comme des influences de toute nature - cela peut être une substance, quelque chose qui coule entre le monde et vous. Il peut y avoir de la température ou des nutriments dans votre corps. Tout ce qui franchit la frontière entre le monde et l'agent est porteur d'informations en soi. De la même manière, un agent peut influencer le monde extérieur de différentes manières, en y fournissant également des informations.

Vous pouvez considérer ce flux comme la bande passante du canal, c'est un concept issu de la théorie de l'information. Vous pouvez avoir de larges pouvoirs, des droits étendus, si vous êtes en mesure de prendre différentes mesures qui conduisent à des résultats différents. En cas de problème, vous perdrez votre autorité, car la perte de capacité correspond à une diminution quantitative de la bande passante entre vous et l'environnement. Telle est l'idée principale.

Que doit savoir un agent pour que ses pouvoirs étendus prennent pleinement effet?

Les droits étendus ont l'avantage de pouvoir être appliqués même lorsque vous n'en avez pas la pleine connaissance. L'agent a vraiment besoin d'un modèle de la façon dont ses actions affecteront le monde, mais il n'a pas besoin d'une compréhension complète du monde et de toutes ses subtilités. Contrairement à certaines approches qui tentent de modéliser autant que possible tout dans le monde, dans notre cas, il vous suffit de découvrir comment vos actions affectent votre propre perception. Vous n'avez pas besoin de tout savoir sur tout; vous n'avez besoin que d'un agent qui explore le monde. Il fait quelque chose et essaie de comprendre comment ses actions affectent le monde. Le modèle grandit et l'agent comprend de mieux en mieux où s'étendent les limites de ses pouvoirs.

Vous l'avez testé dans un environnement virtuel. Pourquoi pas dans le monde réel?

Le principal obstacle à la mise à l'échelle de ce modèle et à son placement dans un vrai robot est la difficulté de calculer la bande passante d'un agent et d'une personne dans un environnement aussi riche que le monde réel pendant longtemps. Tous ces processus ne sont pas encore devenus efficaces. Je suis optimiste, mais jusqu'à présent, ce problème reste purement informatique. Par conséquent, nous vérifions le fonctionnement du système dans un jeu vidéo, sous une forme simplifiée.

Il semble que l'autonomisation, idéalement, fera de nos machines de puissants chiens d'assistance

Je connais même des techniciens robotiques qui modélisent délibérément le comportement d'un compagnon basé sur un chien. Je pense que si les robots nous traitent comme nos chiens, dans cet avenir, nous pourrons tous nous entendre.

Ilya Khel