Les «trois Lois De La Robotique» Nous Protégeront-elles? - Vue Alternative

Table des matières:

Les «trois Lois De La Robotique» Nous Protégeront-elles? - Vue Alternative
Les «trois Lois De La Robotique» Nous Protégeront-elles? - Vue Alternative

Vidéo: Les «trois Lois De La Robotique» Nous Protégeront-elles? - Vue Alternative

Vidéo: Les «trois Lois De La Robotique» Nous Protégeront-elles? - Vue Alternative
Vidéo: Éthique et Robotique : les lois d'Asimov [1/2] 2024, Avril
Anonim

Cela fait 50 ans qu'Isaac Asimov a proposé ses célèbres Trois lois de la robotique - un ensemble de règles que tout robot qui se respecte doit suivre. Bien qu'au départ il ne s'agissait que d'un dispositif littéraire, les trois lois sont devenues la recette originale pour éviter la "robotocalypse". Heureusement, certains experts cherchent à savoir si les garanties d'Azimov ont résisté à l'épreuve du temps. Malheureusement, ils disent tous non.

Pour commencer, rappelons ces trois mêmes lois:

Un robot ne peut pas nuire à une personne ou, par son inaction, permettre à une personne d'être blessée.

Un robot doit obéir à tous les ordres donnés par un humain, sauf lorsque ces ordres sont contraires à la première loi.

Le robot doit veiller à sa sécurité dans la mesure où il ne contredit pas les première et deuxième lois.

Plus tard, Azimov a ajouté une quatrième loi, ou zéro, qui a précédé les autres en termes de priorité:

Vidéo promotionelle:

0. Un robot ne peut pas nuire à une personne, à moins qu'il ne puisse prouver qu'il sera finalement bénéfique pour toute l'humanité.

Image
Image

Dans l'univers fantastique d'Asimov, presque tous les robots devaient suivre ces lois. Il ne s'agissait pas simplement de suggestions ou de directives - des lois ont été intégrées au logiciel. De plus, ces règles ne peuvent être contournées, réécrites ou révisées.

Comme Asimov lui-même l'a montré, les imperfections, les lacunes et les ambiguïtés de ces lois ont souvent conduit à un comportement étrange et illogique des robots. Les lois étaient trop vagues et souvent omis de définir et de distinguer les «humains» des «robots». De plus, les robots pourraient à leur insu enfreindre les lois si des informations complètes ne leur étaient pas disponibles. De plus, un robot ou une intelligence artificielle trop rusé devait être sous pression pour ne pas reprogrammer son noyau.

L'année est 2014, et une grande partie du banal de nos vies aux fantasmes du siècle dernier peut sembler pure fantaisie. Beaucoup de gens ont estimé que les lois d'Asimov auraient dû rester un instrument littéraire. Mais Azimov lui-même a noté en 1981 que ses lois pouvaient fonctionner. Le calcul! il a indiqué ce qui suit:

«Quand quelqu'un me demande ce que ce serait si mes trois lois de la robotique étaient réellement utilisées pour définir le comportement des robots, la réponse est prête. À condition, bien sûr, que les robots soient suffisamment flexibles et polyvalents pour présenter différents comportements. Ma réponse est oui, les trois lois sont la seule façon dont les humains peuvent interagir avec les robots - ou quoi que ce soit d'autre.

Près de trente ans plus tard, nous nous sommes rapprochés d'une réalité dans laquelle nous aurons des robots - ou, plus précisément, l'intelligence artificielle qui les contrôle - suffisamment flexibles et polyvalents pour différents parcours de comportement. Ce n'est qu'une question de temps: quand la machine surpasse l'homme à tous égards, de la force physique au pouvoir de l'imagination.

Le plus effrayant, c'est qu'il n'y a pratiquement aucune marge d'erreur. Si la superintelligence artificielle est mal programmée ou indifférente aux humains, elle conduira au désastre. Nous devons nous assurer que l'intelligence artificielle est sûre si nous voulons survivre à son émergence."

Répondez à la question "Les trois lois d'Azimov peuvent-elles aider?" Deux théoriciens de l'intelligence artificielle ont pris le relais: Ben Herzel (Aidyia Holdings) et Louis Helm, directeur adjoint du Machine Intelligence Research Institute (MIRI) et rédacteur en chef du magazine Rockstar Research. Après avoir discuté avec eux, il est devenu clair que les lois d'Asimov en général ne pouvaient pas faire face à la tâche qui leur était assignée, et si nous devons créer une IA sûre, nous devrons développer quelque chose de complètement différent.

L'avenir d'Asim?

Image
Image

La conversation avec Herzel et Helm a commencé par ce sur quoi Asimov ne s'était pas trompé, prédire l'avenir et où il s'était trompé.

«Je pense que le type de robots envisagé par Asimov sera possible dans un avenir pas trop lointain», répond Herzel. - Cependant, dans la plupart de ses mondes fictifs, l'écrivain a supposé que les robots humanoïdes seraient le summum de la robotique et de l'ingénierie de l'intelligence artificielle. C'est peu probable. Très vite, après avoir atteint le statut de robots Azimov, la création de superintelligence artificielle et de super robots deviendra disponible."

Ainsi, le monde typique du futur dans les histoires d'Asimov sur les robots, selon Herzel, sera similaire à celui dans lequel nous vivons aujourd'hui, mais avec des robots intelligents marchant dans les rues.

"Il est peu probable que cela se produise, et si c'est le cas, cela ne sera pas retardé longtemps."

Pour Helm, les robots semblent complètement différents.

«L'enjeu principal, qui, à mon avis, sera le plus important pour l'humanité, ne reste pas la régulation morale d'un nombre gigantesque d'humanoïdes semi-intelligents, mais finalement le développement de formes avancées d'intelligence artificielle (dans n'importe quel corps). Ce développement de la superintelligence est un filtre que l'humanité doit traverser à la fin. C'est pourquoi l'élaboration d'une stratégie de sécurité pour cette transition est si importante. Il me semble tout à fait étrange que des robots, des androïdes ou des "émulations" existeront pendant dix ans ou un peu plus jusqu'à ce que l'humanité soit confrontée au vrai problème du développement de l'éthique des machines pour la superintelligence."

Un bon début?

Image
Image

Considérant que les trois lois Asimov de la robotique étaient la première tentative sincère de résoudre un problème très grave - le problème du comportement sûr des machines à superintelligence artificielle - il vaut la peine de rechercher ces moments dans lesquels les lois peuvent encore être efficaces (ou du moins inspirantes).

«Pour être honnête, je ne trouve aucune inspiration dans ces trois lois de la robotique», déclare Helm. - L'essence de l'éthique des machines est qu'elles ne satisfont pas aux fondements de l'éthique des machines. Peut-être que les trois lois de la robotique sont largement connues, mais en réalité il est inutile de les utiliser comme base de programmation."

«Pour une raison quelconque, un système de bonne éthique - appelé déontologie - est devenu une base non fiable pour l'éthique. Il y a un certain nombre de philosophes qui essaient de résoudre les problèmes de déontologie, mais ce sont pour la plupart les mêmes personnes qui recherchent «dessein intelligent» et «l'intervention divine». Personne ne les prend au sérieux."

Les inconvénients des trois lois de la robotique d'Asimov se résument à ce qui suit:

De nature contradictoire

Basé sur une théorie éthique obsolète (déontologie)

Ne travaille même pas dans la fiction

Herzel est d'accord:

«Le but des trois lois était de les enfreindre d'une manière intéressante; c'est pourquoi leurs histoires sont particulièrement divertissantes. Par conséquent, les trois lois peuvent rester simplement un exemple moral de la façon de ne pas le faire. Si nous les prenons comme base, il y aura inévitablement des failles ».

Herzel pense qu'en réalité ces lois ne fonctionneront pas, car les termes avec leur participation sont ambigus et restent le sujet d'interprétation - ce qui signifie qu'ils sont extrêmement dépendants de ceux qui font les traductions.

Préjugé contre les robots?

Un autre aspect (et défaut potentiel) des Trois Lois dans le chauvinisme apparent est l'hypothèse que les robots devraient rester, malgré leur puissance supérieure, soumis aux besoins et aux priorités humains et humains.

«La société du futur d'Azimov est entièrement composée de chauvins: les gens ont bien plus de droits que les robots. Les trois lois de la robotique ont été créées pour maintenir un tel ordre social."

Image
Image

Helm regarde ce problème un peu différemment, affirmant que si nous nous trouvons dans une telle situation, cela prouvera en soi que nous sommes allés trop loin.

«Je pense qu'il ne serait pas judicieux de concevoir un système d'intelligence artificielle ou un robot conscient de lui-même. Et contrairement aux films ou aux livres dans lesquels les créateurs d'intelligence artificielle en viennent "accidentellement" aux machines intelligentes, je ne crois pas que cela puisse arriver dans la vraie vie. Cela demandera trop d'efforts et de connaissances. Et la plupart des concepteurs d'IA sont des gens avertis sur le plan éthique, ils éviteront donc de créer ce que les philosophes appellent des «êtres moralement significatifs». Surtout quand ils peuvent facilement créer une machine avancée qui n'a pas de penchants éthiques."

Helm n'est pas préoccupé par la nécessité de développer des lois asymétriques pour régir la valeur des robots par rapport aux humains, arguant (et espérant) que les futurs créateurs d'intelligence artificielle s'appuieront sur certaines contraintes éthiques.

«Je pense que les humains sont faits d'atomes, donc en théorie, un ingénieur peut créer une forme de vie synthétique ou un robot avec une signification morale. Je voudrais penser que personne ne fera cela. Je pense que la plupart des gens le font aussi. Mais il y aura inévitablement un imbécile qui voudra être connu comme un pionnier, même si c'est contraire à l'éthique et stupide."

Trois lois de la robotique 2.0?

Compte tenu des lacunes évidentes des trois lois de la robotique d'Asimov, la ressource io9 a posé la question: peuvent-elles être corrigées ou améliorées? En fait, de nombreux écrivains de science-fiction l'ont essayé à plusieurs reprises, en l'ajustant au fil des ans.

«Non», dit Helm. "Il n'y a pas de correctifs pour les trois lois."

Outre leur nature contradictoire, les lois sont également de nature contradictoire.

«Je suis un partisan des approches d'éthique des machines qui sont plus coopératives, plus cohérentes et plus normatives, ce qui signifie qu'elles peuvent se remettre de malentendus ou corriger une programmation incorrecte.»

Herzel fait écho aux affirmations de Helm.

Définir un ensemble de préceptes éthiques comme le noyau de l'éthique de la machine sera sans espoir si la machine est basée sur une intelligence artificielle générale flexible. S'il est conçu comme intuitif, flexible, adaptatif ou éthique - dans ce contexte, les préceptes éthiques ne seront utiles au système que comme une ligne directrice approximative pour l'application de sa propre intuition éthique. Mais dans ce cas, les commandements ne deviendront pas la base du système éthique, mais seulement un aspect. Cela peut être vu dans des exemples humains - les principes éthiques que nous étudions fonctionnent, mais pas comme des lignes directrices, ils ne font que pousser notre intuition et nos instincts éthiques. Nous sommes pratiquement indépendants des principes éthiques."

Comment créer une intelligence artificielle sécurisée?

Étant donné l'insuffisance de l'approche juridique, vous pouvez interroger Gertzel et Helm sur les approches modernes du problème de «l'IA sûre».

«Très peu de chercheurs en intelligence artificielle générale pensent qu'il est possible de créer un système totalement sécurisé», déclare Herzel. "Mais cela ne dérange pas la majorité, puisque rien ne peut être garanti du tout dans cette vie."

Herzel pense qu'une fois que nous avons créé un système général d'intelligence artificielle ou son embryon, nous pouvons mener des recherches et des expériences qui nous en diront beaucoup plus sur l'éthique de l'IA que nous ne le savons.

«Avec un peu de chance, nous pourrons ainsi formuler de bonnes théories sur l'éthique de l'intelligence artificielle qui nous permettront d'approfondir ce sujet. Mais maintenant, il est assez difficile de théoriser sur l'éthique de l'IA, puisque nous n'avons pas que de bonnes théories, nous n'avons aucune théorie du tout."

«Et pour les gens qui ont regardé trop de terminateurs, le processus de création de l'intelligence artificielle peut sembler intimidant, car ils passent à côté du mot« primitif »dans ce contexte. Cependant, les changements les plus radicaux se sont produits de cette manière.

"Lorsqu'un groupe d'hommes des cavernes intelligents a inventé le langage, ils ne s'attendaient pas au développement d'une solide théorie formelle du langage qui pourrait aider à prédire les changements futurs causés par l'émergence du langage dans la société."

Avant d'envisager le développement des «trois lois» suivantes comme un problème technique, vous devez faire beaucoup de recherches. Et c'est là que Helm et Herzel sont d'accord.

«Mon collègue de MIRI Luc Muelhauser a résumé notre raisonnement comme suit. Il a dit que les problèmes passent souvent de la philosophie aux mathématiques puis à l'ingénierie. On pose souvent les bonnes questions à la philosophie, mais de la manière la plus impraticable. Personne ne peut dire avec certitude s'il y a eu des progrès dans la résolution du problème. Si nous pouvons reformuler les problèmes philosophiques importants de la raison, de l'identification et de la valeur en formules précises qu'un mathématicien peut gérer, alors un modèle peut être construit. Un beau jour, il viendra à l'ingénierie."

Helm trouve ce problème difficile pour la science et la philosophie, mais des progrès sont possibles.

«Je suis sceptique quant à la capacité de la philosophie de résoudre un problème qui se débat depuis plus de 3000 ans. Mais nous aussi, nous ne pouvons pas prendre et commencer à faire des modèles mathématiques de questions qui ne sont pas techniquement présentes. Nous avons encore besoin de beaucoup de développements théoriques et même pratiques."

Recommandé: