La Paranoïa D'Elon Musk Commence à Agacer Les Chercheurs En Intelligence Artificielle - Vue Alternative

La Paranoïa D'Elon Musk Commence à Agacer Les Chercheurs En Intelligence Artificielle - Vue Alternative
La Paranoïa D'Elon Musk Commence à Agacer Les Chercheurs En Intelligence Artificielle - Vue Alternative

Vidéo: La Paranoïa D'Elon Musk Commence à Agacer Les Chercheurs En Intelligence Artificielle - Vue Alternative

Vidéo: La Paranoïa D'Elon Musk Commence à Agacer Les Chercheurs En Intelligence Artificielle - Vue Alternative
Vidéo: L'immortalité grâce à l'intelligence artificielle 2024, Septembre
Anonim

La peur des machines superintelligentes est réelle pour Elon Musk. Le fondateur de Tesla et SpaceX en a parlé à plusieurs reprises, mais le commentaire le plus émouvant qu'il a peut-être fait sur cette question a été adressé aux sénateurs américains, déclarant que l'intelligence artificielle (IA) pose "un risque fondamental pour l'existence de la civilisation humaine". Ce commentaire a attiré l'attention non seulement des responsables gouvernementaux, mais également des chercheurs de cette même IA. Et, apparemment, ils ne sont pas vraiment d'accord avec lui.

«Bien qu'il soit nécessaire de dialoguer sur les effets positifs que la technologie de l'IA peut apporter, il semble que l'essentiel des préoccupations de M. Musk soit centré sur des scénarios inventés pour que l'IA prenne le contrôle du monde», a déclaré un informaticien universitaire. Arizona State Subbarao Kambampati dans une interview avec Inverse.

«La panique de M. Musk déforme le sens de ces discussions publiques. Et c'est très triste."

Kambampati, qui est également à la tête de l'Association pour l'avancement de l'IA et administrateur du Partenariat pour l'IA, n'a pas été la seule personne ces derniers temps à répondre aux récentes déclarations de Musk sur l'IA. François Hallé et David Ha, chercheurs en apprentissage automatique profond chez Google, ont également profité de cette opportunité et à travers leurs pages Twitter prônaient l'IA et l'apprentissage automatique (ML).

«À mon avis, le plus grand danger est le contrôle des naissances de masse et la réglementation par le ciblage et des armées entières de robots de propagande», a écrit Hall dans un message.

«L'intelligence artificielle et l'apprentissage automatique ont le potentiel d'exacerber plusieurs problèmes existants. Mais il est difficile de croire qu’ils sont capables d’en créer de nouveaux », a ajouté Hall dans un autre article.

Le chercheur Pedro Domigos de l'Université de Washington n'avait aucune réponse aux déclarations de Musk, il a donc tweeté un "Eh" simple et laconique.

La menace de l'IA est-elle réelle?

Vidéo promotionelle:

David Ha de Google s'est également demandé si, malgré son travail chez OpenAI, il développait une technologie de voiture autonome chez Tesla, ainsi que le lancement récent de son nouveau projet Neuralink, tout en ayant accès à des technologies d'IA avancées (comme il l'a lui-même déclaré) Musk comprend de quoi il parle.

«Moi aussi, j'ai accès à des technologies d'IA de pointe et pour être honnête, je ne suis pas très impressionné par ce dont ils sont capables», a commenté Ha sur sa page Twitter.

Kambampati, à son tour, a fait référence à un rapport de 2016 sur le développement des technologies d'IA publié par l'administration de l'ancien président Barack Obama, qui a formulé des recommandations très opportunes mais positives sur la politique de réglementation du développement de l'intelligence artificielle. Le rapport de la Maison Blanche ne contenait "aucune mention des préoccupations de M. Musk concernant la superintelligence artificielle", a déclaré Kambampati à Inverse. Et, à son avis, c'est une preuve assez convaincante que toutes ces craintes ne peuvent être considérées comme fondées.

Comme le note le futurisme, il semble plutôt malhonnête qu'un seul Musk retienne toute l'attention, alors qu'il est loin d'être le seul représentant éminent des industries pseudo-scientifiques et techniques, prêtant attention aux menaces possibles de la superintelligence. Par exemple, le célèbre physicien Stephen Hawking n'a pas non plus hésité à commenter l'apocalypse de l'IA. Pourtant, la question la plus importante est la suivante: devrions-nous vraiment avoir peur de l'IA?

Si nous parlons de son état actuel, la réponse est non. Dans le même temps, le développement rapide de la technologie ces dernières années fait penser aux experts que l'on se rapproche de plus en plus de la singularité technologique lorsque les ordinateurs dépassent leurs créateurs. Mais il est tout à fait compréhensible que le niveau actuel d'IA et de robots ne soit même pas proche du niveau de robots tueurs que nous montre la science-fiction. Et en fait, il n'est pas clair si cela se rapprochera du tout.

Le célèbre futuriste et passionné de singularité Ray Kurzweil estime que la singularité n'est pas quelque chose dont nous devrions avoir peur. La peur devrait être de savoir comment les gens peuvent utiliser l'IA. C'est pourquoi la meilleure solution pour nous en ce moment est de définir des idées claires et compréhensibles sur ce que nous attendons des résultats de la recherche sur les technologies d'IA. Musk a définitivement raison sur une chose: nous devons développer des méthodes de réglementation pour tout ce processus. Mais Kambampati avec Hall et Ha ont également raison, soulignant qu'il n'y a aucune raison de paniquer.

Nikolay Khizhnyak

Recommandé: