"Nous Devons Réfléchir Maintenant à La Manière De Sécuriser L'intelligence Artificielle" - Vue Alternative

"Nous Devons Réfléchir Maintenant à La Manière De Sécuriser L'intelligence Artificielle" - Vue Alternative
"Nous Devons Réfléchir Maintenant à La Manière De Sécuriser L'intelligence Artificielle" - Vue Alternative

Vidéo: "Nous Devons Réfléchir Maintenant à La Manière De Sécuriser L'intelligence Artificielle" - Vue Alternative

Vidéo:
Vidéo: La prochaine révolution de l'Intelligence artificielle - Yann LeCun, à l'USI 2024, Septembre
Anonim

Stephen Hawking poursuit la «croisade» contre l'intelligence artificielle (IA).

Au cours de la très attendue campagne Ask Me Everything on Reddit, il a écrit que le travail de développement d'un protocole de sécurité AI devrait être fait maintenant, pas dans un avenir lointain.

«Notre objectif ne devrait pas être de créer une intelligence artificielle abstraite, mais de créer une intelligence utile», a écrit le célèbre physicien. IA avancée ».

Hawking utilise la renommée pour soutenir le mouvement de sécurité de l'IA depuis 2014, lorsqu'il a co-écrit un éditorial avec d'autres chercheurs mettant en garde contre la menace existentielle que les machines avancées représentent pour l'humanité.

D'autres personnalités technologiques notables, Elon Musk et Steve Wozniak, ont rejoint Hawking. Auparavant, tous les trois avaient signé une lettre ouverte appelant à l'interdiction des armes autonomes ou des robots de combat.

Les attentes selon lesquelles l'humanité créera bientôt une intelligence artificielle existent depuis les années 50 et ne se sont pas encore justifiées. Cependant, la plupart des scientifiques de l'IA pensent que des machines dont l'intelligence est égale à celle des humains apparaîtront au cours de ce siècle.

Image
Image

Photo: ANDREW COWIE / AFP

Vidéo promotionelle:

Hawking avertit que la représentation de l'intelligence artificielle dans les films de science-fiction déforme le danger réel des machines. Des films comme The Terminator représentent des robots tueurs démoniaques cherchant à détruire l'humanité pour des raisons que la véritable intelligence artificielle n'avait pas. Ils facilitent également l'atténuation des risques potentiels liés à l'IA (comme ne pas construire de cyborgs).

«La vraie menace de l'IA n'est pas qu'elle soit maléfique, mais qu'elle soit très capable. La superintelligence artificielle est très bonne dans l'accomplissement de ses tâches.

Si ses tâches ne coïncident pas avec les nôtres, nous aurons des problèmes, - a écrit Hawking, - vous détestez à peine les fourmis, mais si vous êtes en charge d'un projet d'énergie verte et que la zone où se trouve la fourmilière doit être inondée, les fourmis n'ont pas de chance. Ne permettons pas à l'humanité de se retrouver dans la position de ces fourmis."

Nick Bostrom, un philosophe de l'IA, fantasme sur les scénarios de fin du monde lorsqu'un programme commence à fonctionner dans la mauvaise direction. Par exemple, l'intelligence artificielle est chargée de développer un plan de protection de l'environnement et, pour résoudre le problème de l'écologie, elle décide de détruire l'humanité.

Elon Musk a déjà engagé 10 millions de dollars dans la recherche sur la sécurité de l'IA pour empêcher une intelligence artificielle destructrice comme Skynet d'apparaître dans Terminator. Mais Hawking veut que les gens changent leur perception globale de l'IA.

"Veuillez dire à vos élèves de réfléchir non seulement à la manière de créer l'IA, mais aussi à la manière de s'assurer qu'elle est utilisée à des fins utiles", a déclaré Hawking à un instructeur qui donne des conférences sur l'intelligence artificielle. "L'émergence d'une IA qui transcende les humains deviendra soit le meilleur ou le pire événement de l'histoire humaine. Par conséquent, il est important que tout se passe comme il se doit."

Recommandé: