Pour éviter La Mort, L'humanité Doit Enfermer L'intelligence Artificielle - Vue Alternative

Table des matières:

Pour éviter La Mort, L'humanité Doit Enfermer L'intelligence Artificielle - Vue Alternative
Pour éviter La Mort, L'humanité Doit Enfermer L'intelligence Artificielle - Vue Alternative

Vidéo: Pour éviter La Mort, L'humanité Doit Enfermer L'intelligence Artificielle - Vue Alternative

Vidéo: Pour éviter La Mort, L'humanité Doit Enfermer L'intelligence Artificielle - Vue Alternative
Vidéo: L'immortalité grâce à l'intelligence artificielle 2024, Mai
Anonim

Les ordinateurs ou robots superintelligents qui menacent l'existence de la race humaine sont une intrigue préférée de la science-fiction. En réalité, selon les scientifiques, un tel scénario apocalyptique ne peut être évité qu'en créant une «prison» virtuelle pour contenir l'intelligence artificielle (IA). Et cela doit être fait avant qu'il n'apprenne à se connaître et à s'améliorer.

Si vous laissez ce génie sortir de la bouteille, puis d'un oracle qui résout nos problèmes, il peut se transformer en une menace apocalyptique, - a déclaré Roman Yampolsky, un scientifique à l'Université de Louisville (Kentucky) travaillant dans le domaine de l'informatique. Les conditions dans lesquelles l'IA sera contenue doivent être soigneusement planifiées afin qu'elle ne puisse pas se libérer de menaces, de pots-de-vin, de tentations ou de piratage informatique.

«Il peut inventer de nombreuses façons d'influencer, de lancer une combinaison de socio-ingénierie complexe et d'utiliser des composants matériels existants à des fins que nous ne pouvons même pas imaginer», estime Yampolsky. - Un tel logiciel a des possibilités illimitées pour infecter les ordinateurs et les réseaux. L'IA peut trouver des moyens d'influencer la psyché humaine, de corrompre ou de faire chanter les personnes qui sont en contact avec elle."

L'émergence d'un nouveau domaine de recherche scientifique traitant du problème de la création d'une «prison» pour l'intelligence artificielle présente des avantages supplémentaires. Ces études sont très utiles pour améliorer la sécurité informatique et la cryptographie, Yampolsky en est sûr. Ses propositions ont été détaillées dans le numéro de mars de la revue académique du Journal of Consciousness Studies.

Comment installer un piège pour Skynet

Pour commencer, vous pouvez enfermer l'intelligence artificielle dans une «machine virtuelle». Laissez-le fonctionner dans un système d'exploitation normal - limiter l'accès de l'IA au logiciel et au matériel de l'ordinateur hôte le rendra beaucoup plus inoffensif. Quoi qu'il en soit, l'intelligence artificielle intelligente ne pourra pas envoyer de messages secrets à ses partisans humains, battant le code Morse avec des ventilateurs de refroidissement.

Mettre l'intelligence artificielle dans un ordinateur sans accès à Internet est un bon moyen de contrecarrer les plans insidieux de l'IA pour protéger la Terre de vous et moi. En cas de tout autre échec, les chercheurs peuvent toujours ralentir le processus de réflexion de l'IA en ralentissant la vitesse de traitement de l'ordinateur, en appuyant régulièrement sur le bouton de réinitialisation ou en déconnectant l'IA de l'alimentation électrique.

Vidéo promotionelle:

Ces mesures de sécurité sont conçues pour lutter contre les virus informatiques hautement intelligents et dangereux, mais leur efficacité est en fait une estimation pour quiconque.

Catch-22 (roman de l'écrivain américain J. Heller; environ Mixednews) est que nous ne pouvons pas effectuer de tests à grande échelle de nos idées tant que le développement de l'IA n'est pas terminé. Mais pour rendre l'IA sûre, il est nécessaire de développer un ensemble de mesures appropriées, explique Yampolsky. "La meilleure option est d'imposer des restrictions sur l'utilisation des systèmes d'IA et ensuite, si nécessaire, de modifier ces restrictions en fonction des capacités croissantes de l'IA."

Image
Image

Le scientifique Roman Yampolsky a suggéré d'utiliser le signe «@» ou d'autres signes qui sont utilisés aujourd'hui pour désigner un rayonnement ou une menace biologique pour indiquer la présence d'un danger associé à l'intelligence artificielle.

Ne placez jamais un agent de sécurité humain sur le véhicule

Lors d'une conversation apparemment innocente avec un agent de sécurité, rien n'empêchera l'IA d'utiliser des techniques psychologiques telles que l'amitié ou le chantage. Une personne peut être soudoyée en lui promettant une santé parfaite, l'immortalité ou même une promesse de rendre des parents et des amis de l'autre monde. Ou réaliser n'importe quoi avec des menaces.

Le moyen le plus sûr de communiquer avec l'IA est de lui faire, lors de la résolution d'un problème scientifique ou technique spécifique, choisir une réponse parmi les nombreuses options disponibles, explique Yampolsky. Cela aidera à garder l'oracle super intelligent en laisse courte.

De nombreux chercheurs pensent que, malgré toutes les précautions, garder le smartass de l'IA enfermé indéfiniment ne fonctionnera pas. La dernière expérience d'Eliezer Yudkowsky, chercheur à l'Institut de la singularité sur la création de l'intelligence artificielle, a montré que même l'intelligence au niveau humain peut tromper une personne et «échapper» à l'emprisonnement.

Néanmoins, Yampolsky insiste pour maintenir l'IA dans un isolement strict - c'est toujours mieux que d'abandonner et de lui donner une liberté totale. Mais si le développement de l'IA atteint le point où il peut manipuler une personne en utilisant le subconscient (prédire l'avenir), la télépathie ou la télékinésie, les conséquences seront imprévisibles.

«Si une telle IA s'améliorera d'elle-même et atteindra un niveau dépassant considérablement les capacités de l'intelligence humaine, les conséquences ne peuvent même pas être imaginées», prévient Yampolsky.

Recommandé: