Les Robots Créeront Les Fausses Informations Les Plus Plausibles - Vue Alternative

Les Robots Créeront Les Fausses Informations Les Plus Plausibles - Vue Alternative
Les Robots Créeront Les Fausses Informations Les Plus Plausibles - Vue Alternative

Vidéo: Les Robots Créeront Les Fausses Informations Les Plus Plausibles - Vue Alternative

Vidéo: Les Robots Créeront Les Fausses Informations Les Plus Plausibles - Vue Alternative
Vidéo: Médecines alternatives : le vrai du faux 2024, Mai
Anonim

Imaginez qu'un jour, un enfant prodige invente une technologie qui permet aux personnes ou aux objets matériels de passer à travers les murs, et affiche des instructions sur Internet sur la façon de construire à bas prix une telle machine miracle à partir de matériaux ménagers courants. Comment le monde changerait-il?

De nombreuses industries sont susceptibles de devenir beaucoup plus productives. Pouvoir traverser les murs au lieu d'avoir à utiliser des portes permettrait aux gens de se déplacer plus facilement dans les bureaux, de déplacer des marchandises dans les entrepôts et d'effectuer d'innombrables tâches ménagères quotidiennes. Cependant, les conséquences négatives pourraient bien l'emporter sur les conséquences positives. Garder les objets de valeur sous clé perdrait toute signification. N'importe qui pouvait facilement entrer dans l'entrepôt, entrer dans un coffre-fort de banque ou dans une maison.

La plupart des méthodes que nous utilisons pour protéger la propriété privée impliquent d'une manière ou d'une autre des murs, donc tous seraient inutiles du jour au lendemain. Les voleurs agiraient en toute impunité jusqu'à ce que la société trouve des moyens alternatifs de prévenir de tels crimes. Un effondrement économique ou un chaos social pourrait être le résultat d'un tel développement d'événements.

Ce qui précède illustre un principe général: l'innovation technologique n'est pas toujours bénéfique pour la société, du moins à court terme. Les technologies sont capables de créer des externalités négatives, des externalités. Ce terme économique désigne les dommages causés à des tiers ou à des parties. Si ces externalités négatives l'emportent sur l'utilité de la technologie elle-même, l'invention rend le monde pire, pas meilleur, du moins pendant un certain temps.

L'apprentissage automatique, en particulier une variante connue sous le nom d'apprentissage en profondeur, est sans doute la percée technologique la plus chaude de la planète. Cela donne aux ordinateurs la capacité d'effectuer de nombreuses tâches que seuls les humains pouvaient effectuer auparavant: reconnaître des images, conduire des voitures, échanger sur le marché boursier, etc. Cela a suscité chez certaines personnes l'inquiétude que l'apprentissage automatique puisse rendre les humains inutiles et inutiles sur le lieu de travail. Et cela est en fait possible, mais il existe un danger beaucoup plus grave lié à l'apprentissage automatique qui n'a pas reçu suffisamment d'attention jusqu'à présent. Le fait est que si les machines sont capables d'apprendre, elles peuvent aussi apprendre à mentir.

Les gens d'aujourd'hui peuvent falsifier des images telles que des photographies, mais c'est un processus laborieux et complexe. Et la falsification d'une voix ou d'une image vidéo dépasse généralement les capacités d'une personne ordinaire. Mais bientôt, grâce à l'apprentissage automatique, il sera probablement possible de créer facilement de fausses images vidéo crédibles du visage de quelqu'un et de donner l'impression que la personne parle de sa propre voix. Il existe déjà une technologie de synchronisation des mouvements des lèvres, qui peut littéralement mettre n'importe quel mot dans la bouche d'une personne. Ce n'est que la pointe de l'iceberg. Bientôt, les enfants de 12 ans pourront créer de fausses images photoréalistes et crédibles de politiciens, de chefs d'entreprise, de leurs parents ou amis dans leurs chambres à coucher, en disant tout ce qu'ils peuvent imaginer.

Cela provoque en soi des abus manifestes. Les canulars politiques, les soi-disant «fake news» ou «information stuffing», se répandront comme des feux de forêt. Bien sûr, la tromperie sera détectée dès que possible - aucune technologie numérique ne peut être si bonne que d'autres technologies ne pourront pas détecter le faux. Mais cela ne se produira qu'après que l'idée néfaste aura déjà pénétré dans l'esprit des personnes qui y croient. Imaginez une fausse vidéo parfaitement fabriquée de candidats présidentiels criant des insultes racistes ou avouant des crimes graves.

Cependant, ce n'est que le début. Imaginez le potentiel de manipuler le marché boursier. Supposons que quelqu'un fasse circuler une fausse vidéo dans laquelle le PDG de Tesla, Elon Musk, admet que les voitures Tesla ne sont pas sûres. La vidéo se répandra sur Internet et les actions de la société s'effondreront. Peu de temps après la découverte d'un faux, leur prix se redressera, cependant, pendant ce temps, les manipulateurs pourront gagner énormément d'argent, en jouant pour réduire les actions de Tesla.

Vidéo promotionelle:

Et c'est loin d'être le scénario le plus extrême. Imaginez un tel farceur créant une fausse vidéo réaliste du président Donald Trump déclarant qu'une frappe contre des cibles nord-coréennes est imminente, puis publiant cette vidéo là où les Nord-Coréens peuvent la voir. Quelles sont les chances que les dirigeants nord-coréens se rendent compte qu'il s'agit d'un faux avant de devoir décider de déclencher une guerre?

Ceux qui ont tendance à considérer ces scénarios extrêmes comme un alarmiste souligneront raisonnablement que tout faux peut être détecté, puisque les mêmes technologies d'apprentissage automatique seront utilisées pour les détecter que pour la création. Mais cela ne signifie pas que nous ne risquons pas de nous retrouver dans un monde rempli de contrefaçons omniprésentes. Une fois que les faux deviennent suffisamment crédibles pour que les gens ne puissent pas les détecter par eux-mêmes, nous perdrons à jamais confiance en ce que nous voyons et entendons. Au lieu de faire confiance à nos propres sens, nous serons obligés de nous fier aux algorithmes utilisés pour détecter les faux et authentifier les informations. Tout au long de l'évolution, nous avons appris à faire confiance à nos propres sentiments,et le transfert de ces fonctions vers l'intelligence artificielle peut être trop drastique pour la plupart des gens.

Cela pourrait être une mauvaise nouvelle pour l'économie. Les réseaux commerciaux et commerciaux reposent sur la confiance et la communication. Si l'apprentissage automatique jette un jour une tempête sans fin d'illusions et de faux dans la sphère de l'information publique, les murs créés par l'évolution pour distinguer la réalité de la fiction s'effondreront. Dans ce cas, le niveau de confiance dans la société peut rapidement baisser, ce qui ne ralentira pas pour affecter négativement le bien-être mondial de l'humanité.

Pour cette raison, le gouvernement devrait probablement prendre certaines mesures pour garantir que la contrefaçon numérique soit sévèrement punie. Malheureusement, il est peu probable que l'administration actuelle fasse un tel pas par amour pour les nouvelles du parti restreint. Et des gouvernements comme la Russie seront probablement encore moins enclins à freiner ces pratiques. En fin de compte, la combinaison d'une mauvaise gouvernance et de nouvelles technologies puissantes représente une menace bien plus grande pour la société humaine que les technologies elles-mêmes.

Par Noah Smith - Chroniqueur Bloomberg News

Igor Abramov

Recommandé: