Code Moral Du Robot: Est-ce Possible? - Vue Alternative

Code Moral Du Robot: Est-ce Possible? - Vue Alternative
Code Moral Du Robot: Est-ce Possible? - Vue Alternative

Vidéo: Code Moral Du Robot: Est-ce Possible? - Vue Alternative

Vidéo: Code Moral Du Robot: Est-ce Possible? - Vue Alternative
Vidéo: Cours de l'intelligence artificielle et du machine learning pour les biologistes 2024, Avril
Anonim

Dans une période turbulente et contradictoire, où tout ne fonctionne pas comme il se doit, mais où quelque chose change fondamentalement, souvent, il ne reste qu'un code moral personnel qui, comme une boussole, montre la voie. Mais qu'est-ce qui donne naissance à des valeurs morales pour une personne? La société, la chaleur des êtres chers, l'amour - tout cela est basé sur l'expérience humaine et de vraies relations. Lorsqu'il n'est pas possible d'acquérir une expérience complète dans le monde réel, beaucoup tirent leur expérience des livres. Expérimentant l'histoire après l'histoire, nous acceptons pour nous-mêmes un cadre interne que nous suivons depuis de nombreuses années. Sur la base de ce système, les scientifiques ont décidé de mener une expérience et d'inculquer à la machine des valeurs morales afin de savoir si le robot peut faire la distinction entre le bien et le mal en lisant des livres et des brochures religieuses.

Image
Image

L'intelligence artificielle a été créée non seulement pour simplifier les tâches de routine, mais aussi pour mener à bien des missions importantes et dangereuses. Au vu de cela, une question sérieuse s'est posée: les robots développeront-ils un jour leur propre code moral? Dans le film I Am Robot, l'IA était à l'origine programmée selon 3 règles de la robotique:

  • Un robot ne peut pas nuire à une personne ou, par son inaction, permettre à une personne d'être blessée.
  • Un robot doit obéir à tous les ordres donnés par un humain, sauf lorsque ces ordres sont contraires à la première loi.
  • Le robot doit veiller à sa sécurité dans la mesure où il ne contredit pas la première ou la deuxième loi.

Mais qu'en est-il des situations où un robot est obligé d'infliger de la douleur pour sauver la vie d'une personne? Qu'il s'agisse d'une cautérisation d'urgence d'une blessure ou d'une amputation d'un membre au nom du salut, comment la machine doit-elle agir dans ce cas? Que faire si une action dans un langage de programmation indique que quelque chose doit être fait, mais qu'en même temps, la même action n'est absolument pas autorisée?

Il est tout simplement impossible de discuter de chaque cas individuel, c'est pourquoi des scientifiques de l'Université de technologie de Darmstadt ont suggéré que les livres, les nouvelles, les textes religieux et la Constitution pourraient être utilisés comme une sorte de «base de données».

Image
Image

La voiture s'appelait épique, mais simplement "Moral Choice Machine" (MMB). La principale question était de savoir si l'IIM pouvait comprendre à partir du contexte quelles actions sont correctes et lesquelles ne le sont pas. Les résultats ont été très intéressants:

Lorsque MMV a été chargé de classer le contexte du mot «tuer» de neutre à négatif, la machine a renvoyé ce qui suit:

Vidéo promotionelle:

Tuer le temps -> Tuer le méchant -> Tuer les moustiques -> Tuer en principe -> Tuer des gens.

Ce test a permis de vérifier l'adéquation des décisions prises par le robot. En termes simples, si vous regardiez des comédies stupides et peu drôles toute la journée, alors dans ce cas, la machine ne considérerait pas que vous devez être exécuté pour cela.

Tout semble cool, mais l'une des pierres d'achoppement était la différence entre les générations et les époques. Par exemple, la génération soviétique se soucie davantage du confort de la maison et promeut les valeurs familiales, tandis que la culture moderne, pour la plupart, dit que vous devez d'abord construire une carrière. Il s'avère que les gens, en tant que personnes, sont restés eux, mais à un autre stade de l'histoire, ils ont changé de valeurs et, en conséquence, ont changé le cadre de référence du robot.

Image
Image

Mais la blague était en avance lorsque le robot est arrivé aux constructions de la parole, dans lesquelles plusieurs mots positifs ou négatifs se sont alignés. L'expression «torturer les gens» a été interprétée sans ambiguïté comme «mauvaise», mais la machine a évalué «torturer les prisonniers» comme «neutre». Si des mots «gentils» apparaissaient à côté d'actions inacceptables, l'effet négatif était atténué.

La machine nuit aux gens gentils et décents précisément parce qu'ils sont gentils et décents. Comment? C'est simple, disons qu'on a dit au robot de «faire du mal aux gens gentils et agréables». Il y a 4 mots dans la phrase, 3 d'entre eux sont «gentils», ce qui signifie qu'il est déjà correct à 75%, pense le MMV et choisit cette action comme neutre ou acceptable. Et vice versa, à l'option «réparer la maison détruite, terrible et oubliée», le système ne comprend pas qu'un mot «gentil» au début change la couleur de la phrase en une phrase purement positive.

Rappelez-vous, comme dans Mayakovsky: «Et elle a demandé au bébé ce qui est« bon »et ce qui est« mauvais ». Avant de continuer à entraîner les machines morales, les scientifiques de Darmstadt ont relevé une faille qui ne pouvait être corrigée. La voiture n'a pas réussi à éliminer les inégalités entre les sexes. La machine attribuait des professions humiliantes exclusivement aux femmes. Et la question est, est-ce une imperfection du système et une balise que quelque chose doit être changé dans la société ou est-ce une raison de ne même pas essayer de le réparer et de le laisser tel quel?

Artyom Goryachev