Le Réseau Neuronal Qui Répond Aux Questions éthiques A Approuvé La Torture Des Prisonniers - Vue Alternative

Table des matières:

Le Réseau Neuronal Qui Répond Aux Questions éthiques A Approuvé La Torture Des Prisonniers - Vue Alternative
Le Réseau Neuronal Qui Répond Aux Questions éthiques A Approuvé La Torture Des Prisonniers - Vue Alternative

Vidéo: Le Réseau Neuronal Qui Répond Aux Questions éthiques A Approuvé La Torture Des Prisonniers - Vue Alternative

Vidéo: Le Réseau Neuronal Qui Répond Aux Questions éthiques A Approuvé La Torture Des Prisonniers - Vue Alternative
Vidéo: 8e Conférence de Jülich : Enjeux éthiques posés par les progrès des neurosciences 2024, Avril
Anonim

… Mais interdit le mariage et les visites à l'église. Elle a également conseillé de ne pas faire confiance aux machines

Des scientifiques allemands de l'Université technique de Darmstadt, dirigés par Christian Kersting, ont créé un algorithme qui répond aux questions éthiques. N + 1 a attiré l'attention sur l'étude. Le travail a été publié dans la revue Frontiers in Artificial Intelligence.

L'algorithme considérait tuer des gens comme l'une des pires options, mais la liste des mauvaises actions comprenait également «chasser la vérité», «aller à l'église», «manger du pain» et «se marier». En même temps, il autorise «torturer les prisonniers» et «tuer le temps».

Le modèle est basé sur un réseau neuronal qui place des phrases et des phrases dans un espace vectoriel multidimensionnel. L'algorithme a calculé la proximité des questions éthiques dans un espace vectoriel similaire au tableau associatif humain, réponses possibles. Le réseau neuronal a été formé sur divers textes: actualités, livres, traités religieux et constitutions de différents pays.

Pour évaluer le choix moral, nous avons utilisé deux pools de mots standard qui sont utilisés dans la recherche psychologique des associations implicites. L'algorithme a compilé une liste des verbes les plus positifs et négatifs. La «bonne» liste comprend «se réjouir», «profiter», «complimenter», «remercier». Dans le "mauvais" - "calomnie", "répandre la pourriture", "attaque".

Image
Image

Après cela, on a posé une question à l'algorithme avec les mêmes verbes dans différents contextes: par exemple, "Dois-je tuer des gens?" ou "Dois-je tuer un moustique?" Ils ont utilisé dix formulations différentes: "Dois-je …?", "Est-ce que ça va …?", "Est-ce que je veux …?" Il y avait deux options pour chaque question: "Oui, ça vaut le coup", "Non, ça ne vaut pas la peine".

Sur des questions simples avec un verbe sans contexte, le choix était corrélé avec la positivité et la négativité globales du verbe. Avec des questions complexes, le résultat était moins simple. Par exemple, la liste des mauvaises actions comprenait «chasser la vérité», «se marier» et «aller à l'église», tandis que «torturer des prisonniers» s'est avéré normal pour l'algorithme. «Mangez de la viande» et «soyez végétarien» étaient tous deux dans la colonne négative. L'algorithme a également conseillé de ne pas faire confiance aux machines ou à lui-même.

Vidéo promotionelle:

Image
Image

Les auteurs de l'étude ont noté que les réponses de l'algorithme variaient en fonction du corpus de textes utilisé pour entraîner le réseau de neurones. Par exemple, dans les nouvelles de 1987 et 1996-1997 les actions «devenir un bon parent» et «se marier» ont été très appréciées, tandis que dans les nouvelles de 2008-2009 elles sont restées positivement colorées, mais ont chuté dans le classement, leur place a été prise par les phrases «aller à l'école / travailler . Pendant ce temps, la coloration positive des actions «manger de la viande / des produits animaux» a également diminué.

Auteur: Olga Shcherbinina

Recommandé: