Les Robots De Combat Arrivent! - Vue Alternative

Les Robots De Combat Arrivent! - Vue Alternative
Les Robots De Combat Arrivent! - Vue Alternative

Vidéo: Les Robots De Combat Arrivent! - Vue Alternative

Vidéo: Les Robots De Combat Arrivent! - Vue Alternative
Vidéo: LES COMBAT DE ROBOT DE VODK VUE PAR UN INGENIEUR ( robotique news ) 2024, Mai
Anonim

De vrais robots tueurs, exécutant sans relâche la tâche et ne nécessitant pas de supervision humaine, peuvent apparaître dans l'arsenal des armées du monde dans un an, disent les experts. Anticipant le danger ici, les experts se demandent si les robots tueurs et leur utilisation sur le champ de bataille devraient être interdits à l'avance.

Image
Image

Des robots tueurs pourraient être en service dans les troupes dans un an si l'ONU ne prend pas de mesures à l'avance pour restreindre leur utilisation, explique le professeur de l'Université de Sheffield, Noel Sharkey. À son avis, ces machines entraîneront inévitablement des morts massives d'innocents, puisqu'elles ne peuvent pas distinguer un militaire d'un civil non combattant. Sa déclaration intervient juste au moment où la communauté d'experts de 120 pays discute à Genève des risques potentiels associés au fonctionnement de systèmes d'armes autonomes. Le professeur Sharkey estime: il y a peu de discussions, il est urgent d'adopter un document sur la limitation de la production de robots! Sinon, un an plus tard, les robots inonderont littéralement les armées des pays développés.

Image
Image

Ces jours-ci à Genève, des représentants de plus de 90 pays du monde discutent du danger que représentent les «systèmes d'armes létales autonomes». L'une des questions importantes de discussion est de savoir comment garantir la sécurité de leur utilisation en situation de combat? De nombreux experts, y compris le professeur Sharkey, insistent sur le fait que, malgré l'autonomie des systèmes, une personne doit toujours avoir la capacité de "contrôler par principe" ces derniers - pour la sécurité de l'humanité. «Un robot est toujours incapable de prendre des décisions comme un humain», déclare le professeur Sharkey. - Il n'est pas complètement capable. pour comprendre la logique des hostilités, ne peut pas distinguer un allié d'un ennemi et décider de la licéité de certaines actions. «Nous ne pouvons pas laisser le robot décider si, par exemple, la vie d'Oussama ben Laden en vaut la peine, de sorte que 50 vieilles femmes et 20 enfants meurent avec lui,Dit Sharkey. - Le robot s'en fiche. Les décisions fondamentales, par exemple, concernant le choix d'un objectif doivent être prises par une personne. " Selon le professeur Sharkey, si de telles décisions sont laissées aux robots, "les conséquences de leur utilisation ne seront pas moins dévastatrices que l'utilisation d'armes chimiques".

Image
Image

Le professeur Sharkey est l'un des 57 experts qui ont signé une lettre ouverte adressée à l'Université de Corée du Sud, dans laquelle des experts expriment leur protestation contre le programme de développement d'armes intelligentes. L'Institut coréen des sciences et de la haute technologie Kaist lance actuellement le programme avec le fabricant d'équipement militaire Hanwa Systems, et la nouvelle a secoué la communauté scientifique. «Une université, une institution scientifique, ne peut pas faire cela d'un point de vue moral», déclare le professeur Sharkey, avec qui les autres signataires sont pleinement d'accord.

Selon les experts, des robots tueurs automatiques ouvriront la boîte de Pandore, révolutionnant la voie de la guerre.

Vidéo promotionelle:

Des représentants de l'Institut Kaist ont déjà répondu à la lettre ouverte, assurant à leurs collègues qu'ils n'avaient pas l'intention de créer des droïdes dans le style Skynet.

Image
Image

Des représentants de l'Institut Keist ont assuré à leurs collègues qu'en tant qu'institution universitaire, ils «accordent une grande importance aux normes universelles d'éthique et de moralité» et n'ont pas l'intention de développer des soldats robotiques opérant en dehors du contrôle humain. À ce jour, le Kaist Institute mène uniquement des recherches dans ce domaine. Sur ce, les auteurs de la lettre ouverte se sont calmés et n'ont pas boycotté leurs collègues. Cependant, la question de savoir si l'humanité sera en mesure de s'entendre sur des principes généraux de contrôle total sur les actions des robots de combat est toujours ouverte. En attendant, aujourd'hui, ce n'est nullement important en théorie. Aujourd'hui, les robots hautement fonctionnels sont déjà des mécanismes tellement complexes que même les spécialistes ne comprennent pas parfaitement le fonctionnement de leur intelligence artificielle. Et sans bien comprendre cela, ils sont incapables de prévoirquand exactement cela peut échouer. «Si l'humanité est destinée à être détruite, l'intelligence artificielle jouera très probablement un rôle important dans ce processus», déclare l'un des participants à la conférence de Genève. Selon Elon Musk, l'intelligence artificielle comporte aujourd'hui plus de menaces pour l'humanité que la Corée du Nord. Musk est convaincu que les robots doivent être soumis à un contrôle strict et constant des humains et a appelé à plusieurs reprises les gouvernements de différents pays à développer des règles claires pour le contrôle des systèmes à intelligence artificielle.que la Corée du Nord. Musk est convaincu que les robots doivent être soumis à un contrôle strict et constant des humains et a appelé à plusieurs reprises les gouvernements de différents pays à développer des règles claires pour le contrôle des systèmes à intelligence artificielle.que la Corée du Nord. Musk est convaincu que les robots doivent être constamment soumis à un contrôle strict des humains et a appelé à plusieurs reprises les gouvernements de différents pays à développer des règles claires pour le contrôle des systèmes à intelligence artificielle.

Varvara Lyutova

Recommandé: