Les Scientifiques Ont Expliqué Comment Une Course Aux Armements Conduirait à Une «guerre à La Terminator» - Vue Alternative

Les Scientifiques Ont Expliqué Comment Une Course Aux Armements Conduirait à Une «guerre à La Terminator» - Vue Alternative
Les Scientifiques Ont Expliqué Comment Une Course Aux Armements Conduirait à Une «guerre à La Terminator» - Vue Alternative

Vidéo: Les Scientifiques Ont Expliqué Comment Une Course Aux Armements Conduirait à Une «guerre à La Terminator» - Vue Alternative

Vidéo: Les Scientifiques Ont Expliqué Comment Une Course Aux Armements Conduirait à Une «guerre à La Terminator» - Vue Alternative
Vidéo: [Terminales Histoire / Concours Sciences Po ] La course aux armements 2024, Avril
Anonim

Dans un nouveau rapport, des experts de l'Université Cornell ont évoqué les risques associés à l'introduction de plus en plus active de l'intelligence artificielle dans les armes nucléaires, selon le Daily Mail. Selon les scientifiques, les machines peuvent "devenir incontrôlables" et provoquer une "guerre apocalyptique", de sorte que les principales décisions concernant l'utilisation des armes nucléaires sont encore mieux laissées à la personne.

Les scientifiques préviennent que le transfert du contrôle des armes nucléaires à l'intelligence artificielle pourrait aboutir à une guerre apocalyptique «à la Terminator».

Dans leur nouveau rapport, des experts de l'Université américaine Ivy League Cornell soutiennent qu'une évolution croissante vers l'automatisation et la robotisation pourrait conduire au fait que les machines «deviennent incontrôlables» et déclarent la guerre à l'humanité - comme dans une série de science-fiction films "Terminator" avec Arnold Schwarzenegger.

Selon les experts, essayant de «rattraper les États-Unis en termes de potentiel militaire», la Russie et la Chine commencent à s'appuyer plus souvent sur les technologies d'intelligence artificielle, qui à l'avenir pourraient présenter des risques encore inconnus du monde. Ainsi, Moscou a déjà commencé à travailler sur la torpille nucléaire sous-marine sans pilote Poséidon, anciennement connue sous le nom de Status-6.

En outre, les pays peuvent décider d'utiliser plus activement l'intelligence artificielle dans les systèmes d'alerte précoce. Et ici, comme le rappellent les scientifiques, l'histoire nous montre que les risques peuvent aussi être importants. Beaucoup de gens connaissent l'incident de 1983, lorsque l'officier soviétique Stanislav Petrov a ignoré le signal du système pour lancer des missiles américains. Petrov s'est rendu compte que le signal était faux et a ainsi sauvé le monde d'une possible guerre nucléaire entre les États-Unis et la Russie.

Les experts reconnaissent que, sous une forme ou une autre, l’informatisation des armes nucléaires peut améliorer la fiabilité et la stabilité de ces systèmes. L'intelligence artificielle peut collecter des données et effectuer des analyses, qui peuvent ensuite être utilisées par les chefs militaires.

«En modernisant les arsenaux nucléaires, les dirigeants devraient s’efforcer d’utiliser des systèmes informatiques pour réduire le risque d’accidents accidentels, de faux positifs et d’accroître le contrôle humain sur les opérations d’armes nucléaires», recommandent les scientifiques.

Recommandé: