Comment Les Réseaux De Neurones Ont Appris à Falsifier L'image De L'actualité - Vue Alternative

Table des matières:

Comment Les Réseaux De Neurones Ont Appris à Falsifier L'image De L'actualité - Vue Alternative
Comment Les Réseaux De Neurones Ont Appris à Falsifier L'image De L'actualité - Vue Alternative

Vidéo: Comment Les Réseaux De Neurones Ont Appris à Falsifier L'image De L'actualité - Vue Alternative

Vidéo: Comment Les Réseaux De Neurones Ont Appris à Falsifier L'image De L'actualité - Vue Alternative
Vidéo: Coder un simple réseau de neurone - Se former à Tensorflow 2.0 #5 2024, Avril
Anonim

Pour créer des contrefaçons, des systèmes d'intelligence artificielle et des technologies pour générer des contrefaçons vidéo et audio sont utilisés.

Pour créer une image d'actualité «individuelle» pour chacun d'entre nous et pour falsifier les reportages médiatiques qui y sont sélectionnés, les efforts d'un programmeur suffisent aujourd'hui. Des spécialistes de l'intelligence artificielle et de la cybersécurité en ont parlé à Izvestia. Plus récemment, ils ont estimé que cela nécessitait le travail de plusieurs équipes. Une telle accélération est devenue possible avec le développement de technologies pour les attaques sur les réseaux de neurones et la génération de faux son et vidéo en utilisant des programmes pour créer des «faux profonds». Le journal Izvestia a récemment subi une attaque similaire, lorsque trois portails d'information libyens ont publié à la fois un message qui aurait paru dans l'un des numéros. Selon les experts, d'ici 3 à 5 ans, on peut s'attendre à une invasion de manipulateurs robotiques, qui seront automatiquement capables de créer de nombreux faux.

Nouveau monde courageux

Il y a eu de plus en plus de projets qui ajustent l'image de l'information à la perception d'utilisateurs spécifiques. Un exemple de leur travail a été l'action récente de trois portails libyens, qui ont publié des nouvelles qui auraient été publiées dans le numéro d'Izvestia le 20 novembre. Les créateurs du faux ont modifié la première page du journal, y affichant un message sur les négociations entre le maréchal Khalifa Haftar et le Premier ministre du gouvernement d'accord national (PNS) Fayez Sarraj. Le faux, en fonte Izvestia, était accompagné d'une photo des deux dirigeants prise en mai 2017. L'étiquette avec le logo de la publication a été coupée du numéro publié du 20 novembre, et tous les autres textes de la page du numéro du 23 octobre.

Du point de vue des spécialistes, dans un avenir prévisible, de telles falsifications peuvent être effectuées automatiquement.

Image
Image

«Les technologies de l'intelligence artificielle sont désormais complètement ouvertes, et les dispositifs de réception et de traitement des données se miniaturisent et deviennent moins chers», a déclaré à Izvestia Yuri Vilsiter, docteur en sciences physiques et mathématiques, professeur à l'Académie des sciences de Russie, chef du département FSUE «GosNIIAS». - Par conséquent, il est fort probable que dans un proche avenir, pas même l'État et les grandes entreprises, mais simplement des particuliers, pourront nous écouter et nous espionner, ainsi que manipuler la réalité. Dans les années à venir, il sera possible, en analysant les préférences des utilisateurs, de l'influencer à travers des fils d'actualité et des faux très intelligents.

Vidéo promotionelle:

Selon Yuri Vilsiter, les technologies qui peuvent être utilisées pour une telle intervention dans l'environnement mental existent déjà. En théorie, l'invasion des robots manipulateurs peut être attendue dans quelques années, a-t-il déclaré. Un moment limité ici peut être la nécessité de collecter de grandes bases de données d'exemples de réponses de personnes réelles à des stimuli artificiels avec suivi des conséquences à long terme. Un tel suivi nécessitera probablement plusieurs années de recherche supplémentaires avant que des attaques ciblées ne soient systématiquement obtenues.

Attaque visuelle

Alexei Parfentiev, chef du département analytique de SearchInform, est d'accord avec Yuri Vilsiter. Selon lui, les experts prédisent déjà des attaques sur les réseaux de neurones, bien qu'il n'y ait pratiquement plus d'exemples de ce type.

- Les chercheurs de Gartner estiment que d'ici 2022, 30% de toutes les cyberattaques viseront à corrompre les données sur lesquelles le réseau neuronal s'entraîne et à voler des modèles d'apprentissage automatique prêts à l'emploi. Ensuite, par exemple, les véhicules sans pilote peuvent soudainement commencer à confondre les piétons avec d'autres objets. Et nous ne parlerons pas de risque financier ou de réputation, mais de la vie et de la santé des gens ordinaires, estime l'expert.

Des attaques contre les systèmes de vision par ordinateur sont actuellement menées dans le cadre de la recherche. Le but de ces attaques est de forcer le réseau neuronal à détecter dans l'image ce qui n'y est pas. Ou, au contraire, ne pas voir ce qui était prévu.

Image
Image

«L'un des sujets qui se développe activement dans le domaine de la formation des réseaux de neurones est ce que l'on appelle les attaques contradictoires (« attaques contradictoires »- Izvestia)», a expliqué Vladislav Tushkanov, analyste Web chez Kaspersky Lab. - Dans la plupart des cas, ils visent les systèmes de vision par ordinateur. Pour mener une telle attaque, dans la plupart des cas, vous devez avoir un accès complet au réseau de neurones (les attaques dites en boîte blanche) ou aux résultats de son travail (attaques en boîte noire). Aucune méthode ne peut tromper un système de vision par ordinateur dans 100% des cas. De plus, des outils ont déjà été créés qui vous permettent de tester les réseaux de neurones pour la résistance aux attaques adverses et d'augmenter leur résistance.

Au cours d'une telle attaque, un attaquant tente de modifier d'une manière ou d'une autre l'image reconnue afin que le réseau neuronal ne fonctionne pas. Souvent, le bruit se superpose à la photo, semblable à celui qui se produit lors de la photographie dans une pièce mal éclairée. Une personne ne remarque généralement pas bien ces interférences, mais le réseau neuronal commence à mal fonctionner. Mais pour mener à bien une telle attaque, l'attaquant doit avoir accès à l'algorithme.

Selon Stanislav Ashmanov, directeur général de Neuroset Ashmanov, il n'existe actuellement aucune méthode pour résoudre ce problème. De plus, cette technologie est accessible à tous: un programmeur moyen peut l'utiliser en téléchargeant le logiciel open source nécessaire à partir du service Github.

Image
Image

- Une attaque sur un réseau de neurones est une technique et des algorithmes pour tromper un réseau de neurones, qui lui font produire de faux résultats, et en fait, le casser comme une serrure de porte, - croit Ashmanov. - Par exemple, il est maintenant assez facile de faire croire au système de reconnaissance faciale que ce n'est pas vous, mais Arnold Schwarzenegger devant lui - cela se fait en mélangeant des additifs imperceptibles à l'œil humain dans les données entrant dans le réseau neuronal. Les mêmes attaques sont possibles pour les systèmes de reconnaissance et d'analyse de la parole.

L'expert est sûr que cela ne fera qu'empirer - ces technologies sont allées au plus grand nombre, les fraudeurs les utilisent déjà et il n'y a aucun moyen de les protéger. Comme il n'y a aucune protection contre la création automatisée de contrefaçons vidéo et audio.

Faux profonds

Les technologies Deepfake basées sur le Deep Learning (technologies d'apprentissage profond des réseaux de neurones. - Izvestia) représentent déjà une réelle menace. Les contrefaçons vidéo ou audio sont créées en éditant ou en superposant les visages de personnes célèbres qui sont censées prononcer le texte nécessaire et jouer le rôle nécessaire dans l'intrigue.

«Deepfake vous permet de remplacer les mouvements des lèvres et la parole humaine par la vidéo, ce qui crée un sentiment de réalisme de ce qui se passe», déclare Andrey Busargin, directeur du département de protection de la marque innovante et de la propriété intellectuelle chez Group-IB. - De fausses célébrités «proposent» aux utilisateurs des réseaux sociaux de participer au tirage de lots de valeur (smartphones, voitures, sommes d'argent), etc. Les liens de ces vidéos mènent souvent à des sites frauduleux et de phishing où les utilisateurs sont invités à saisir des informations personnelles, y compris des informations de carte bancaire. Ces systèmes constituent une menace à la fois pour les utilisateurs ordinaires et les personnalités publiques mentionnées dans les publicités. En raison de ce genre de manigances, les images de célébrités sont associées à des escroqueries ou à des produits annoncés.et c'est là que nous nous heurtons à des dommages à la marque personnelle », dit-il.

Image
Image

Une autre menace est liée à l'utilisation de «faux votes» pour la fraude téléphonique. Par exemple, en Allemagne, des cybercriminels ont utilisé voice deepfake pour obliger le chef d'une filiale britannique à transférer en urgence 220 000 € sur le compte d'un fournisseur hongrois lors d'une conversation téléphonique, se faisant passer pour un chef d'entreprise. Le patron de la firme britannique soupçonnait une supercherie lorsque son «patron» demandait un deuxième mandat-poste, mais l'appel provenait d'un numéro autrichien. À ce moment-là, la première tranche avait déjà été transférée sur un compte en Hongrie, d'où l'argent avait été retiré au Mexique.

Il s'avère que les technologies actuelles permettent de créer une image d'actualité individuelle remplie de fausses nouvelles. De plus, il sera bientôt possible de distinguer les contrefaçons de la vidéo et de l'audio réels uniquement par le matériel. Selon les experts, les mesures interdisant le développement de réseaux de neurones sont peu susceptibles d'être efficaces. Par conséquent, bientôt nous vivrons dans un monde dans lequel il sera nécessaire de tout revérifier constamment.

«Nous devons nous préparer à cela et nous devons l'accepter», a souligné Yuri Vilsiter. - L'humanité n'est pas la première fois à passer d'une réalité à une autre. Notre monde, notre mode de vie et nos valeurs sont radicalement différents du monde dans lequel vivaient nos ancêtres il y a 60 000 ans, 5 000 ans, 2 000 ans et même 200 à 100 ans. Dans un proche avenir, une personne sera largement privée de sa vie privée et donc obligée de ne rien cacher et d'agir honnêtement. En même temps, rien dans la réalité environnante et dans sa propre personnalité ne peut être pris sur la foi, tout devra être remis en question et constamment revérifié. Mais cette réalité future sera-t-elle désastreuse? Ne pas. Ce sera simplement complètement différent.

Anna Urmantseva

Recommandé: