Google Ne Veut Pas Créer Skynet Un Jour, Il Crée Donc Un Commutateur Pour L'IA - Vue Alternative

Google Ne Veut Pas Créer Skynet Un Jour, Il Crée Donc Un Commutateur Pour L'IA - Vue Alternative
Google Ne Veut Pas Créer Skynet Un Jour, Il Crée Donc Un Commutateur Pour L'IA - Vue Alternative

Vidéo: Google Ne Veut Pas Créer Skynet Un Jour, Il Crée Donc Un Commutateur Pour L'IA - Vue Alternative

Vidéo: Google Ne Veut Pas Créer Skynet Un Jour, Il Crée Donc Un Commutateur Pour L'IA - Vue Alternative
Vidéo: Domotique Ép3 | Interaction entre une page web et des périphériques 433MHz 2024, Juillet
Anonim

Il y a deux principaux côtés opposés dans les questions et discussions sur l'avenir de l'intelligence artificielle. Dans un coin, des entreprises telles que Google, Facebook, Amazon et Microsoft investissent de manière agressive dans la technologie pour rendre les systèmes d'IA plus intelligents; dans l'autre se trouvent les grands penseurs de notre époque comme Elon Musk et Stephen Hawking qui croient que le développement de l'IA s'apparente à un "sortilège de démon".

L'une des sociétés d'IA les plus avancées, DeepMind, propriété de Google, a mis en place des mesures de sécurité au cas où une personne aurait besoin de «prendre le contrôle d'un robot, dont la défaillance pourrait entraîner des conséquences irréparables». Nous pouvons supposer que nous parlons de … "tuer tout le monde". Bien sûr, dans la réalité, la mesure prise n'est pas un signe d'apocalypse possible, il s'agit plutôt de mesures de sécurité associées à des robots intelligents qui fonctionnent et travailleront à l'avenir dans diverses usines et usines.

Le document publié avec des prescriptions est un travail conjoint de DeepMind et de l'Oxford Institute for the Future of Humanity, qui, comme son nom l'indique, traite des problèmes qui permettront à cette même humanité d'entrer dans le futur. Pendant des décennies, le directeur fondateur de l'institut, Nick Bostrom, a parlé très vivement des dangers possibles du développement de l'intelligence artificielle et a écrit plus d'un livre sur ce sujet, dans lequel il a discuté des conséquences de la création de robots superintelligents.

Le guide dont nous parlons aujourd'hui, intitulé «Agents désactivés en toute sécurité», explore comment désactiver l'IA si elle fait quelque chose que l'opérateur humain ne veut pas faire. Le travail consiste en divers calculs et formules que 99% d'entre nous ne comprendront probablement pas. Par conséquent, pour faire simple, nous parlons d'un "bouton rouge" qui peut désactiver l'IA.

Vous pouvez rire et vous demander, mais les pionniers de la robotique et de l'IA regardent les mêmes films de science-fiction que nous. Ceux dans lesquels les robots ont une fois compris comment ignorer la commande d'arrêt. Alors maintenant, nous serons prêts pour cela. Le document publié décrit des méthodes et des solutions pour garantir que «l'agent entraînable» (lire AI) ne peut pas apprendre à ignorer ou à prévenir l'impact de l'environnement externe ou de l'opérateur humain.

Cela peut sembler exagéré, surtout si l'on considère que l'IA la plus avancée actuellement n'est vraiment bonne que dans les jeux de société. Cependant, Bostrom pense qu'avant de commencer à créer une IA au niveau du cerveau humain, des mesures appropriées doivent être prises:

«Dès que l'intelligence artificielle atteint le niveau humain, un bond en avant dans le développement est attendu dans de nombreux domaines. De plus, peu de temps après, les IA elles-mêmes créeront de nouvelles IA. Il suffit d'évaluer ces perspectives et en même temps les dangers possibles. Par conséquent, il vaut mieux en faire trop que de le rater."

NIKOLAY KHIZHNYAK

Vidéo promotionelle:

Recommandé: