Pourquoi Avez-vous Mal Compris La Robo-apocalypse - Vue Alternative

Table des matières:

Pourquoi Avez-vous Mal Compris La Robo-apocalypse - Vue Alternative
Pourquoi Avez-vous Mal Compris La Robo-apocalypse - Vue Alternative

Vidéo: Pourquoi Avez-vous Mal Compris La Robo-apocalypse - Vue Alternative

Vidéo: Pourquoi Avez-vous Mal Compris La Robo-apocalypse - Vue Alternative
Vidéo: АСМР [RP] Зомби апокалипсис 🧟‍♀ ASMR Zombie Apocalypse 🧟 2024, Avril
Anonim

La peur de l'intelligence artificielle est depuis longtemps ancrée dans la culture populaire. Les meilleurs esprits de l'humanité, de Stephen Hawking à Elon Musk, ont parlé de la menace existentielle de l'esprit numérique pour l'humanité.

Le professeur de l'Université de Californie à Berkeley Stuart Russell en parle également, mais dans sa vision de l'avenir, il n'y a pas de robots maléfiques qui se rebellent contre la domination humaine.

Selon Russell, à un moment donné, les machines deviendront simplement si efficaces qu'elles nous détruiront, effectuant les tâches que nous leur avons confiées.

Russell est un expert en apprentissage automatique et auteur de Human Compatible: AI and the Problem of Control.

«L'histoire traditionnelle d'Hollywood est que les machines deviennent spontanément conscientes et décident ensuite qu'elles détestent les gens et veulent tuer tout le monde», note le professeur Russell.

Mais cela, à son avis, est une fausse vision de la robo-apocalypse, car les machines n'ont pas d'émotions humaines.

«Nous devons nous soucier non pas de la conscience de soi des machines maléfiques, mais de la compétence des machines qui exécutent les tâches que nous avons définies», est convaincu le scientifique.

Vidéo promotionelle:

Trop compétent

Dans une interview accordée à BBC Today, le professeur Russell a décrit une situation hypothétique dans laquelle l'existence de l'humanité pourrait être menacée par l'intelligence artificielle.

Imaginez qu'il existe une intelligence artificielle super puissante capable de contrôler le climat de la planète. Il est chargé de ramener les niveaux de dioxyde de carbone dans l'atmosphère aux niveaux préindustriels.

Image
Image

«Le système considérera que le moyen le plus efficace d'y parvenir est de détruire des gens. Ils produisent du dioxyde de carbone », explique le professeur.

«Cela peut être contourné, par exemple, en lui faisant une condition pour ne pas se débarrasser des gens. Que fera alors le système? Elle veillera à ce que de moins en moins d'enfants naissent jusqu'à ce que les gens disparaissent complètement."

C'est un exemple de ce à quoi l'intelligence artificielle peut conduire sous des instructions humaines mal conçues.

Superintelligence

Les systèmes d'IA qui existent aujourd'hui ont des applications étroitement ciblées. Ils sont conçus pour résoudre des problèmes clairement définis dans un domaine, affirment des scientifiques du Center for the Study of Existential Risks de l'Université de Cambridge.

Le moment triomphant de cette philosophie de l'IA a été la victoire de l'ordinateur Deep Blue sur le champion du monde d'échecs en titre Garry Kasparov en 1997.

* La victoire de Deep Blue sur Kasparov en 1997 était un triomphe de l'IA
* La victoire de Deep Blue sur Kasparov en 1997 était un triomphe de l'IA

* La victoire de Deep Blue sur Kasparov en 1997 était un triomphe de l'IA.

Mais Deep Blue a été créé exclusivement pour le jeu d'échecs. Aux échecs, il aurait perdu contre une cinquième.

Les progrès récents de l'intelligence artificielle nous ont apporté des programmes très différents.

Par exemple, le programme AlphaGo Zero a appris à jouer à Go seul, sans utiliser de données sur les jeux passés joués par des gens, et en seulement trois jours de jeu avec lui-même, il a atteint un niveau inaccessible pour une personne ordinaire.

Des algorithmes d'apprentissage en profondeur ont été utilisés pour créer AlphaGo Zero. Cela signifie que relativement peu de travail humain a été nécessaire pour développer le programme.

En même temps, AlphaGo Zero sait bien jouer aux échecs et au shogi.

Rappelez-vous que le programme est complètement auto-apprentissage. Cela peut inquiéter certains.

«À mesure que l'IA devient plus puissante et polyvalente, il y a un risque qu'elle devienne superintelligente, c'est-à-dire qu'elle surpassera les humains dans de nombreux ou tous les domaines», déclare le Center for the Study of Existential Risks.

Nous ne savons pas ce que nous voulons

Le professeur Russell pense que le simple fait de confier à l'IA des tâches très spécifiques n'est pas une solution, car les humains eux-mêmes ne sont pas capables de les formuler suffisamment bien.

Image
Image

"Nous ne réalisons pas que nous n'aimons pas quelque chose tant que cela ne se produira pas", dit-il.

«Nous devons changer l'approche très basique de la création de systèmes d'IA», ajoute le professeur. Il pense que confier aux robots une tâche qu'ils effectuent ensuite est fondamentalement faux.

«Le système doit comprendre que l'objectif n'est pas clair pour lui. il dit. - Lorsque de tels systèmes sont créés, ils dépendent vraiment de la personne. Ils commencent à demander la permission avant de faire quelque chose parce qu'ils ne savent pas si vous le souhaitez."

Plus important encore, dit le professeur, ils ne résisteront pas si vous décidez de les désactiver, car ils sont conçus pour ne pas faire ce que vous n'aimez pas.

Lampe d'Aladdin

Aujourd'hui, l'intelligence artificielle est créée comme s'il s'agissait du génie d'une lampe, explique le professeur Russell. Vous frottez la lampe et dites: "Je veux que ceci et cela se produise."

Dans 2001 * A Space Odyssey * de Stanley Kubrick, un ordinateur superintelligent se révolte contre les humains qui décident de l'arrêter
Dans 2001 * A Space Odyssey * de Stanley Kubrick, un ordinateur superintelligent se révolte contre les humains qui décident de l'arrêter

Dans 2001 * A Space Odyssey * de Stanley Kubrick, un ordinateur superintelligent se révolte contre les humains qui décident de l'arrêter.

Et si l'intelligence artificielle est suffisamment puissante, elle fera exactement ce que vous demandez.

"Le problème avec le gin est que le troisième souhait est toujours d'annuler les deux premiers, parce que la personne les a mal formulés."

"Une machine qui poursuit le mauvais objectif devient de facto l'ennemi de l'humanité, et cet ennemi est bien plus fort que nous", conclut le scientifique.