Quels Dangers Des Réseaux De Neurones Sous-estimons-nous? - Vue Alternative

Table des matières:

Quels Dangers Des Réseaux De Neurones Sous-estimons-nous? - Vue Alternative
Quels Dangers Des Réseaux De Neurones Sous-estimons-nous? - Vue Alternative

Vidéo: Quels Dangers Des Réseaux De Neurones Sous-estimons-nous? - Vue Alternative

Vidéo: Quels Dangers Des Réseaux De Neurones Sous-estimons-nous? - Vue Alternative
Vidéo: Introduction aux mathématiques des réseaux de neurones 2024, Mai
Anonim

Avez-vous déjà rencontré une personne dans la rue qui serait un à un comme vous? Les vêtements, le visage, la démarche, le mode de communication, les habitudes sont complètement identiques aux vôtres. C'est comme être numérisé et imprimé sur une imprimante. Cela semble un peu effrayant, n'est-ce pas? Imaginez maintenant que vous avez vu une vidéo dans laquelle une telle personne raconte quelque chose sur elle-même. Au mieux, vous essaierez de vous souvenir quand vous avez marché de telle manière que vous ne vous souveniez de rien, mais vous pourriez le dire à la caméra. Bien que tout cela ressemble à un simple raisonnement, la technologie est déjà très proche de créer de telles personnes. Ils existent déjà, mais il y en aura bientôt beaucoup d'autres.

D'où vient le faux?

Maintenant, il y a déjà trop de choses que l'on appelle communément des faux. Ils sont partout. On les retrouve dans les photographies, dans les actualités, dans la production de biens et dans les services d'information. Il est plus facile de dire où il n'y a pas de phénomène accompagné de ce mot. Alors que vous pouvez les combattre. Vous pouvez étudier l'origine de la photo, vérifier les caractéristiques distinctives d'un produit de marque à partir d'un faux et revérifier les actualités. Cependant, les nouvelles sont un sujet distinct.

De nos jours, un consommateur de contenu ne veut pas attendre et demande une production instantanée de la part de son créateur, parfois il ne se soucie même pas de la qualité, l'essentiel est de le faire rapidement. C'est là que des situations surviennent lorsque quelqu'un a dit quelque chose et que les autres, sans le vérifier, l'ont enlevé de leurs sites Web et de leurs journaux. Dans certains cas, il faut beaucoup de temps pour faire tourner cette balle et prouver que tout était faux.

Il ne sert à rien d'expliquer pourquoi tout cela est fait. D'un côté, il y a ceux qui veulent juste rire de la situation, de l'autre, ceux qui ne savaient vraiment pas qu'ils avaient tort. Une place séparée, approximativement au milieu, est occupée par ceux pour qui il est banal de profiter. Il peut s'agir d'intérêts d'influence à différents niveaux, y compris au niveau politique. Parfois, c'est le but de faire un profit. Par exemple, semer la panique sur le marché boursier et effectuer des transactions rentables avec des titres. Mais cela est souvent dû à l'hostilité envers une personne (entreprise, produit, etc.) afin de la rabaisser. Un exemple simple est de «chuter» dans les classements d'un film ou d'une institution qui n'est pas souhaitable pour quelqu'un. Bien sûr, cela nécessite une armée de ceux qui iront et n'aimeront pas (parfois même des robots), mais c'est une autre histoire.

Qu'est-ce que le Deep Learning?

Vidéo promotionelle:

Récemment, ce terme sonne de plus en plus souvent. Parfois, il n'est même pas lié à l'affaire et est confondu avec autre chose. Le produit logiciel est donc plus impressionnant.

Ne pensez pas que le concept et les principes de base de l'apprentissage automatique sont apparus il y a seulement quelques années. En fait, ils ont tellement d'années que beaucoup d'entre nous n'étaient même pas nés à l'époque. Les principes de base des systèmes d'apprentissage profond et les modèles mathématiques de leur travail étaient connus dans les années 80 du siècle dernier.

À l'époque, ils n'avaient pas beaucoup de sens en raison de l'absence d'un élément important. C'était une puissance de calcul élevée. Ce n'est qu'au milieu des années 2000 que sont apparus des systèmes qui peuvent aider à travailler dans ce sens et permettre de calculer toutes les informations nécessaires. Aujourd'hui, les machines ont encore plus évolué et certains systèmes de vision industrielle, de perception vocale et d'autres fonctionnent si efficacement qu'ils dépassent parfois même les capacités d'une personne. Bien qu'ils ne soient pas encore «emprisonnés» dans des directions responsables, ce qui en fait un ajout aux capacités humaines tout en gardant le contrôle sur eux.

Image
Image

Qu'est-ce que Deepfake? Quand Deepfake est-il apparu?

Il est facile de deviner que Deepfake est un petit jeu de mots associé au Deep Learning et aux faux faux dont j'ai parlé ci-dessus. Autrement dit, Deepfake devrait porter le faux à un nouveau niveau et décharger une personne dans cette entreprise difficile, lui permettant de créer du faux contenu sans gaspiller d'énergie.

Tout d'abord, ces faux concernent la vidéo. Autrement dit, toute personne peut s'asseoir devant la caméra, dire quelque chose, et son visage sera remplacé par une autre personne. Cela semble effrayant, car, en fait, il vous suffit de saisir les mouvements de base d'une personne et il sera tout simplement impossible de distinguer un faux. Voyons comment tout a commencé.

Le premier réseau antagoniste génératif a été créé par un étudiant de l'Université de Stanford. Cela s'est passé en 2014 et le nom de l'étudiant était Ian Goodfellow. En fait, il a opposé deux réseaux de neurones l'un à l'autre, dont l'un était engagé dans la génération de visages humains, et le second les a analysés et a parlé de la même manière ou non. Alors ils se sont entraînés et un jour le deuxième réseau neuronal a commencé à se confondre et à prendre les images générées pour de vrai. C'est ce système toujours plus complexe qui donne naissance à Deepfake.

Aujourd'hui, l'un des principaux promoteurs de l'idée de Deepfake est Hao Li. Il ne fait pas seulement cela, mais aussi bien d'autres. Pour cela, il a reçu à plusieurs reprises divers prix, y compris des prix non officiels. Au fait, il fait partie de ceux qui devraient être remerciés pour l'apparition d'animoji dans l'iPhone X. Si vous êtes intéressé, vous pouvez vous familiariser avec lui plus en détail sur son site Web. Aujourd'hui, il n'est pas le principal sujet de discussion.

Nous ne nous sommes souvenus de lui que parce qu'au Forum économique mondial de Davos il a montré sa candidature, qui vous permettra de remplacer le visage d'une personne assise devant la caméra par n'importe quel autre visage. En particulier, il a montré comment le système fonctionne sur l'exemple des visages de Leonardo DiCaprio, Will Smith et d'autres personnes célèbres.

Cela a l'air un peu effrayant. D'une part, vous ne pouvez qu'admirer les technologies modernes qui vous permettent de scanner un visage, de le changer en un autre en déplacement et de produire une nouvelle image. Tout cela prend une fraction de seconde et le système ne ralentit même pas. Autrement dit, cela permet non seulement de traiter la vidéo finie et de remplacer le visage, mais également de participer à un tel personnage dans une sorte de communication vidéo en direct.

Danger de Deepfake. Comment changer le visage d'une vidéo?

Vous pouvez dire autant que vous le souhaitez que cette technologie est nécessaire, c'est très cool et vous n'avez pas à calomnier. Vous pouvez même aller à l'extrême et commencer à dire que c'est la position d'un ancien féroce qui a simplement peur de tout ce qui est nouveau, mais il y a vraiment plus de dangers que d'avantages.

Avec une telle technologie, surtout si elle est open source, n'importe qui pourra surfer et enregistrer n'importe quelle vidéo. Ce n'est pas mal si cela diffame simplement l'honneur et la dignité de quelqu'un, bien pire s'il s'agit d'une déclaration faite au nom d'une personne importante. Par exemple, en enregistrant une vidéo de seulement 30 à 40 secondes pour le compte de Tim Cook, vous pouvez faire tomber presque toute la sphère informatique américaine, dirigée par Apple. La bourse sera si durement touchée qu'elle sèmera la panique parmi les investisseurs. En conséquence, des milliers de personnes perdront des milliards de dollars.

Quiconque n'aime pas cette façon de gagner de l'argent dira que c'est ce dont il a besoin, laissez-les aller à l'usine. Mais dans le scénario le plus triste, il n'y aura plus d'usine après cela. De plus, il est ridicule que nous ayons une personne qui triche sur les fluctuations de la valeur des titres. Il suffit de les acheter et de les vendre à temps.

La situation pourrait être encore pire si le «joker» s'exprime au nom du chef d'un grand État. Bien sûr, tout sera révélé, mais pendant ce temps, vous pouvez faire beaucoup de choses désagréables. Dans ce contexte, simplement substituer le visage d'une célébrité à un acteur dans un film pour adultes serait une farce innocente.

Avec de telles technologies, l'essentiel est de scanner, puis c'est une question de technologie. Dans le vrai sens du terme
Avec de telles technologies, l'essentiel est de scanner, puis c'est une question de technologie. Dans le vrai sens du terme

Avec de telles technologies, l'essentiel est de scanner, puis c'est une question de technologie. Dans le vrai sens du terme.

Vous pouvez imaginer la situation inverse, quand une personne réelle dit quelque chose, puis assure à tout le monde qu'elle a été encadrée. Comment être dans cette situation n'est pas non plus très clair. Cela apportera une telle confusion aux fils d'actualité qu'il n'est tout simplement pas possible de les vérifier dans une autre source. En conséquence, il deviendra généralement peu clair ce qui est vrai et ce qui est faux dans ce monde. Une image émerge des films sur un avenir sombre, comme Surrogates ou Terminator, où le T-1000 s'est présenté comme d'autres personnes et, entre autres, a appelé John Conor au nom de sa mère adoptive.

Maintenant, je ne parle même pas d'un autre abus qui permettra la collecte de fausses preuves. Dans ce contexte, tout le plaisir du jouet devient trop douteux.

Comment détecter Deepfake?

Le problème n'est même pas que de tels systèmes doivent être interdits, mais que ce n'est plus possible. Ils sont déjà là, et le développement des technologies, notamment la lecture des visages, a conduit à leur apparition et à la diffusion de l'open source. Même si nous imaginons que le système dans sa forme actuelle cessera d'exister, nous devons comprendre qu'il sera recréé. Ils apprendront encore une fois aux réseaux de neurones à fonctionner les uns avec les autres et c'est tout.

Jusqu'à présent, tout n'est pas si effrayant et vous pouvez littéralement identifier un faux à l'œil nu. L'image est similaire, mais plutôt approximative. De plus, elle a parfois des problèmes de mélange, en particulier sur les bords du visage. Mais rien ne s'arrête et il n'est pas du tout difficile de le développer encore plus. Le même Hao Li est sûr que cela ne prendra pas plus de quelques mois, et pour créer des «masques» que même un ordinateur ne peut pas distinguer, il faudra encore plusieurs années. Après cela, il n'y aura plus de retour en arrière.

D'une part, l'algorithme que YouTube et Facebook sont déjà en train de créer peut se protéger contre cela. D'ailleurs, ce dernier a même ouvert un concours pour le développement d'une technologie de reconnaissance - Deepfake Detection Challenge ("La tâche de détecter les deepfakes"). Le fonds de prix pour ce concours est de 10 millions de dollars. Le concours est déjà en cours et se terminera en mars 2020. Vous pouvez encore avoir le temps de participer.

Le remplacement d'un visage dans une vidéo n'est plus un problème
Le remplacement d'un visage dans une vidéo n'est plus un problème

Le remplacement d'un visage dans une vidéo n'est plus un problème.

Cette générosité est peut-être due à une fausse vidéo avec Mark Zuckerberg lui-même. Si ces deux choses sont liées, l'émergence d'une telle compétition n'est pas surprenante.

Si la face remplacée correspond parfaitement à l'original, la contre-force représentée par un réseau neuronal spécial sera impuissante. Dans ce cas, elle devra saisir des différences minimes dans les expressions faciales, les mouvements et la manière de parler. Dans le cas de personnes célèbres, un tel problème sera résolu au niveau du service vidéo, puisque le même YouTube sait comment se déplace le classique Donald Trump. Quand il s'agit d'une personne moins connue, cela devient plus délicat. Bien que cela puisse également être prouvé en le plaçant devant la caméra et en ayant une conversation informelle pendant que le réseau de neurones analyse ses mouvements. Cela se révélera être quelque chose comme l'étude d'une empreinte digitale, mais, comme nous pouvons le voir, cela conduira à nouveau à des difficultés inutiles.

La couture de systèmes d'authentification vidéo dans des caméras peut également être contournée. Vous pouvez faire en sorte que la caméra marque la vidéo capturée et indiquer clairement qu'elle n'a pas été filmée via une application séparée ou traitée dans un programme spécial. Mais qu'en est-il des vidéos qui viennent d'être traitées? Par exemple, une interview révisée. En conséquence, nous obtiendrons une vidéo dans laquelle la clé d'origine ne sera plus.

Quelques mèmes à la fin
Quelques mèmes à la fin

Quelques mèmes à la fin.

Pouvons-nous dire que nous avons maintenant esquissé l'un des scénarios d'un avenir sombre? En général, oui. Si les technologies créées pour atteindre de bons objectifs deviennent incontrôlables, elles peuvent être gorgées de chagrin. En fait, il existe de nombreuses options pour ces technologies dangereuses, mais la plupart d'entre elles sont protégées. Par exemple, la fusion nucléaire. Ici, nous avons affaire à du code que n'importe qui peut obtenir.

Ecrivez dans les commentaires comment vous voyez la protection contre la contrefaçon, sachant que le système de masquage a pu rendre des masques complètement identiques aux visages d'origine. Et comme ils sont sur vidéo, vous ne pouvez même pas leur appliquer une reconnaissance de profondeur et de volume. De plus, supposons que tout code et clé intégrés dans l'image peuvent être piratés. Comme on dit, ce serait pour quoi. Maintenant, nous pouvons discuter, toute l'introduction est là.

Artem Sutyagin

Recommandé: