«L'intelligence Artificielle En Tant Que Terroriste»: Nouvelles Menaces Pour La Sécurité - Vue Alternative

Table des matières:

«L'intelligence Artificielle En Tant Que Terroriste»: Nouvelles Menaces Pour La Sécurité - Vue Alternative
«L'intelligence Artificielle En Tant Que Terroriste»: Nouvelles Menaces Pour La Sécurité - Vue Alternative

Vidéo: «L'intelligence Artificielle En Tant Que Terroriste»: Nouvelles Menaces Pour La Sécurité - Vue Alternative

Vidéo: «L'intelligence Artificielle En Tant Que Terroriste»: Nouvelles Menaces Pour La Sécurité - Vue Alternative
Vidéo: "L’Intelligence artificielle au service de la cybersécurité" sur BFM Business 2024, Octobre
Anonim

Des scientifiques russes ont examiné et classé les menaces liées à l'utilisation de l'intelligence artificielle (IA) du point de vue de l'information internationale et de la sécurité psychologique. Une attention particulière a été accordée à la lutte contre l'utilisation malveillante de l'IA par les terroristes. Les résultats de la recherche sont publiés dans la revue Russia in Global Affairs.

Dangers de l'utilisation malveillante de l'IA

Le danger potentiel de l'intelligence artificielle pour l'humanité est devenu à plusieurs reprises le sujet des œuvres d'art et est aujourd'hui l'une des questions les plus discutées du développement scientifique et technologique. Bien que l'IA forte, capable d'une pensée systémique indépendante, et possiblement possédant une conscience de soi et une volonté, soit encore loin d'être créée, diverses versions avancées de l'IA faible exécutent des tâches spécialisées qui ressemblaient à de la science-fiction il y a 10 ans. L'utilisation de l'IA à de bonnes fins (par exemple, en médecine) apporte déjà des avantages incontestables. Cependant, entre les mains d'organisations terroristes et d'autres organisations criminelles, des technologies d'IA progressivement moins chères et plus avancées peuvent devenir une arme plus terrible que le nucléaire.

Des chercheurs de différents pays étudient activement les menaces que l'utilisation malveillante de l'IA fait peser sur la société dans son ensemble et sur certaines sphères de l'activité humaine, que ce soit la politique, l'économie, les affaires militaires, etc. Cependant, les menaces qui pèsent directement sur l'information internationale et la sécurité psychologique n'ont pas encore été identifiées comme étant indépendantes. champ d’examen. Pendant ce temps, l'utilisation de l'IA pour déstabiliser les relations internationales grâce à des informations de haute technologie ciblées et à un impact psychologique sur les personnes est un grand danger évident.

Les auteurs de l'étude ont proposé une classification des menaces à l'utilisation malveillante de l'intelligence artificielle en fonction d'un certain nombre de critères, dont la couverture territoriale, la vitesse et la forme de propagation. L'application de la classification vous aidera à trouver des moyens de contrer et de développer des outils de réponse.

«La réduction future du coût des technologies d'IA peut créer des menaces d'attaques terroristes fondamentalement nouvelles. Il est possible qu'un chatbot soit utilisé pour construire un message sur un faux événement et convaincre des victimes potentielles de le visiter. Afin de contrer, il est conseillé de familiariser la société avec les nouvelles menaces, en demandant aux citoyens de se méfier des contacts à distance avec des personnes qu'ils ne connaissent pas personnellement. La solution pourrait être la certification d'événements publics, confirmant la réalité des informations publiées à leur sujet. Bien entendu, la tâche des spécialistes techniques dans ce cas sera la protection des bases de données sur les événements et le mécanisme de leur certification », a déclaré Daria Bazarkina, professeur au Département de la sécurité internationale et de la politique étrangère de Russie, RANEPA, à RIA Novosti.

Le niveau moderne des technologies et des capacités de l'IA nous permet d'identifier un certain nombre de menaces fondamentalement nouvelles pour les informations et la sécurité psychologique d'une personne.

Vidéo promotionelle:

Utiliser les technologies des «faux gens» et des «deepfake» pour des provocations internationales

L'entreprise technologique américaine NVIDIA a récemment partagé les résultats d'un réseau génératif-compétitif formé pour générer ses propres images de personnes («fausses personnes»). Le réseau de neurones en quelques secondes crée des images haute résolution des visages de personnes inexistantes, peut ajouter des caractéristiques culturelles et ethniques, des émotions, une humeur et est basé sur une collection infinie d'images de vrais visages. À l'avenir, il est possible que cette expérience soit répétée par d'autres développeurs. Dans le même temps, de telles images peuvent être utilisées par des criminels pour toutes sortes de provocations, qui ne peuvent être reconnues que par une société dotée de connaissances polytechniques systémiques.

«La technologie Deepfake peut synthétiser l'image et la voix d'une personne. Il a déjà commencé à être utilisé pour créer des images vidéo de dirigeants mondiaux, dont le président américain Donald Trump et le président russe Vladimir Poutine. Les vidéos Deepfake sont capables de manipuler le comportement de grands groupes cibles et peuvent être utilisées dans la confrontation informationnelle et psychologique (IPP) afin de provoquer la panique financière ou la guerre », a déclaré Evgeny Pashentsev, chercheur de premier plan à l'Institut des questions internationales contemporaines de l'Académie diplomatique du ministère russe des Affaires étrangères, professeur à l'Université d'État de Moscou.

L'analyse des sentiments est une classe de méthodes d'analyse de contenu en linguistique computationnelle conçue pour la détection automatisée du vocabulaire émotionnellement coloré et l'évaluation émotionnelle des auteurs dans les textes. L'analyse des sentiments est fournie par un large éventail de sources, telles que des blogs, des articles, des forums, des sondages, etc. Cela peut être un outil très efficace dans les API, ce qui, par exemple, est confirmé par le grand intérêt pour de tels développements actuellement de la part de la direction du US Special Operations Command. (Le Commandement des opérations spéciales des États-Unis (SOCOM).

«Armes prédictives»: prédire le comportement humain à partir des données des médias sociaux

En 2012, l'Advanced Intelligence Research Agency (IARPA) des États-Unis a lancé le programme EMBERS (Early Model-Based Event Recognition Using Surrogates). Le but du développement est appelé la prévision des troubles civils basée sur l'utilisation de l'IA avec la détermination de la date, du lieu, du groupe protestataire de la population.

Le système traite les données des médias et des réseaux sociaux, ainsi que des sources de meilleure qualité, par exemple des indicateurs économiques. La chute de tels programmes aux mains de terroristes est bien entendu également extrêmement dangereuse. Dans ce cas, les attaques terroristes majeures lors des manifestations sociales les plus importantes peuvent devenir une menace probable. Un critère supplémentaire pour choisir les cibles d'une attaque terroriste peut être le degré de tension sociale et psychologique dans certains domaines.

Selon les auteurs de l'étude, comme contre-mesure, l'analyse prédictive peut être utilisée par l'État et les autorités supranationales elles-mêmes pour prévenir les tensions sociales (adoption en temps opportun de mesures sociales, économiques et politiques visant à assurer la stabilité à long terme).

En outre, les groupes terroristes peuvent nuire à la réputation en utilisant des robots lors de campagnes politiques, ainsi que pour attirer de nouveaux partisans ou organiser les assassinats de politiciens.

Capturer des drones et des infrastructures robotiques

Les systèmes de transport auto-apprenants avec contrôle de l'IA peuvent être des cibles pratiques pour les attaques terroristes de haute technologie. La prise de contrôle par les terroristes du contrôle du système de contrôle des transports dans une grande ville peut entraîner de nombreuses victimes, provoquer la panique et créer un climat psychologique qui facilitera d'autres activités criminelles.

Les systèmes commerciaux peuvent être utilisés pour déployer des véhicules aériens sans pilote ou des véhicules autonomes pour livrer des explosifs et créer des accidents. Une série de catastrophes majeures peut provoquer des remous dans les médias internationaux et causer des dommages importants à l'information et à la sécurité psychologique.

Des chercheurs de l'Académie présidentielle russe d'économie nationale et d'administration publique et de l'Académie diplomatique du ministère des Affaires étrangères de la Fédération de Russie ont fondé leurs recherches sur une analyse systématique du rôle de l'IA dans le domaine de la sécurité, une méthode d'analyse de scénarios, des analogies historiques et une analyse de cas. Avec un collègue de l'Université d'Uppsala (Suède), Greg Simons, les auteurs de l'étude sont devenus co-éditeurs du livre à paraître "Terrorism and Advanced Technologies in Information-Psychological Confrontation: New Risks, New Opportunities to Counter the Terrorist Threat" avec la participation de chercheurs de 11 pays.

À l'initiative de chercheurs russes, le problème du rôle de l'IA dans le contexte des menaces sur l'information internationale et la sécurité psychologique est activement débattu et sera débattu lors de conférences internationales et de séminaires de recherche internationaux autonomes. Parmi elles, une conférence organisée sous les auspices de la Commission de la Fédération de Russie pour l'UNESCO et de plusieurs autres structures russes et internationales à Khanty-Mansiysk du 9 au 12 juin. La gouverneure de l'Okrug autonome de Khanty-Mansiysk, Natalya Vladimirovna Komarova, a pris une part active à la session de la section sur le problème de l'utilisation malveillante de l'IA, formée avec le soutien du Réseau européen-russe d'experts pour la gestion de la communication (ERESKM). Dans le futur, c'est le IV Forum ibéro-américain à Saint-Pétersbourg du 1er au 3 octobre 2019,Conférence européenne sur l'impact de l'intelligence artificielle et de la robotique 31 octobre - 1er novembre 2019. Les auteurs des études ont présenté des rapports scientifiques en Argentine, en Uruguay, au Brésil, en Afrique du Sud et en Italie.

Selon des spécialistes de la RANEPA et de l'Académie diplomatique, il est extrêmement important à l'échelle de la Russie d'établir la formation de programmes ciblés à long terme, car le problème de l'IA et de l'information internationale et de la sécurité psychologique est un problème pour le proche avenir.

Recommandé: