Machine Morale: Les Ingénieurs Ont Doté L'intelligence Artificielle De Moralité Et D'éthique - Vue Alternative

Table des matières:

Machine Morale: Les Ingénieurs Ont Doté L'intelligence Artificielle De Moralité Et D'éthique - Vue Alternative
Machine Morale: Les Ingénieurs Ont Doté L'intelligence Artificielle De Moralité Et D'éthique - Vue Alternative

Vidéo: Machine Morale: Les Ingénieurs Ont Doté L'intelligence Artificielle De Moralité Et D'éthique - Vue Alternative

Vidéo: Machine Morale: Les Ingénieurs Ont Doté L'intelligence Artificielle De Moralité Et D'éthique - Vue Alternative
Vidéo: La prochaine révolution de l'Intelligence artificielle - Yann LeCun, à l'USI 2024, Mai
Anonim

Plus l'intelligence artificielle entre dans notre vie quotidienne, plus elle doit souvent faire face à des dilemmes moraux et éthiques complexes, qui ne sont parfois pas si faciles à résoudre pour une personne vivante. Les scientifiques du MIT ont essayé de résoudre ce problème et ont doté la machine de la capacité de penser en termes de moralité, sur la base de l'opinion de la plupart des gens vivants.

Certains experts estiment que la meilleure façon de former l'intelligence artificielle pour gérer des situations moralement difficiles est d'utiliser «l'expérience de foule». D'autres soutiennent que cette approche n'est pas sans biais et que différents algorithmes peuvent tirer des conclusions différentes à partir du même ensemble de données. Comment les machines peuvent-elles se trouver dans une telle situation, qui devront évidemment prendre des décisions morales et éthiques difficiles en travaillant avec de vraies personnes?

Intellect et moralité

À mesure que les systèmes d'intelligence artificielle (IA) évoluent, les experts essaient de plus en plus de résoudre le problème de la meilleure façon de donner au système une base éthique et morale pour effectuer certaines actions. L'idée la plus populaire est que l'IA tire des conclusions en étudiant les décisions humaines. Pour tester cette hypothèse, des chercheurs du Massachusetts Institute of Technology ont créé la Moral Machine. Les visiteurs du site Web ont été invités à faire des choix sur la façon dont un véhicule autonome devrait agir face à un choix plutôt difficile. Par exemple, il s'agit d'un dilemme familier concernant un accident potentiel, qui n'a que deux options pour le développement des événements: une voiture peut heurter trois adultes pour sauver la vie de deux enfants, ou elle peut faire le contraire. Quelle option devriez-vous choisir? Et est-il possible, par exemple,sacrifier la vie d'une personne âgée pour sauver une femme enceinte?

En conséquence, l'algorithme a assemblé une énorme base de données basée sur les résultats des tests, et Ariel Procaccia du département d'informatique de l'Université Carnegie Mellon a décidé de les utiliser pour améliorer l'intelligence artificielle. Dans une nouvelle étude, lui et l'un des créateurs du projet, Iyad Rahwan, ont chargé la base complète du projet Moral Machine dans l'IA et ont demandé au système de prédire comment la voiture sur pilote automatique réagirait à des scénarios similaires, mais toujours légèrement différents. Procaccia voulait démontrer comment un système basé sur le vote peut être une solution pour l'intelligence artificielle «éthique». »L'auteur de l'ouvrage lui-même admet qu'un tel système, bien sûr, est encore trop tôt pour être appliqué dans la pratique, mais il prouve parfaitement le concept même c'est possible.

Traverser la morale

Vidéo promotionelle:

L'idée même de choisir entre deux résultats moralement négatifs n'est pas nouvelle. L'éthique utilise un terme distinct pour cela: le principe du double effet. Mais c'est le domaine de la bioéthique, mais personne n'a auparavant appliqué un tel système à une voiture, et donc l'étude a suscité un intérêt particulier parmi les experts du monde entier. Le coprésident d'OpenAI, Elon Musk, estime que créer une IA «éthique» est une question de développement de lignes directrices ou de politiques claires pour guider le développement de programmes. Les politiciens l'écoutent peu à peu: par exemple, l'Allemagne a créé les premiers principes éthiques au monde pour les voitures autonomes. Même Alphabet AI DeepMind de Google dispose désormais d'un département d'éthique et de moralité publique.

D'autres experts, y compris une équipe de chercheurs de l'Université Duke, estiment que la meilleure façon d'avancer est de créer un «cadre général» décrivant comment l'IA prendra des décisions éthiques dans une situation donnée. Ils croient que l'unification des points de vue moraux collectifs, comme dans la même machine morale, rendra l'intelligence artificielle encore plus morale à l'avenir que la société humaine moderne.

Critique de la "machine morale"

Quoi qu'il en soit, à l'heure actuelle, le principe de «l'opinion majoritaire» est loin d'être fiable. Par exemple, un groupe de répondants peut avoir des préjugés qui ne sont pas communs à tout le monde. Le résultat sera que les IA qui reçoivent exactement le même ensemble de données peuvent parvenir à des conclusions différentes basées sur différents échantillons de ces informations.

Pour le professeur James Grimmelmann, qui se spécialise dans la dynamique entre logiciel, richesse et pouvoir, l'idée même de moralité publique semble imparfaite. «Il n'est pas en mesure d'enseigner l'éthique de l'IA, mais seulement de lui donner un semblant de normes éthiques inhérentes à une certaine partie de la population», dit-il. Et Procaccia lui-même, comme mentionné ci-dessus, admet que leur recherche n'est rien de plus qu'une preuve de concept réussie. Cependant, il est convaincu qu'une telle approche pourrait apporter le succès à l'ensemble de la campagne pour créer une IA hautement morale à l'avenir. "La démocratie, sans aucun doute, a un certain nombre de lacunes, mais en tant que système unifié, elle fonctionne - même si certaines personnes prennent encore des décisions avec lesquelles la majorité n'est pas d'accord."

Vasily Makarov

Recommandé: