Intelligence Artificielle: Un Ennemi Dangereux Ou Une Aide Aimable - Vue Alternative

Intelligence Artificielle: Un Ennemi Dangereux Ou Une Aide Aimable - Vue Alternative
Intelligence Artificielle: Un Ennemi Dangereux Ou Une Aide Aimable - Vue Alternative

Vidéo: Intelligence Artificielle: Un Ennemi Dangereux Ou Une Aide Aimable - Vue Alternative

Vidéo: Intelligence Artificielle: Un Ennemi Dangereux Ou Une Aide Aimable - Vue Alternative
Vidéo: L'Intelligence Artificielle en Afrique : Réalisations, Problèmes, Enjeux et Solutions 2024, Mai
Anonim

L'utilisation de l'intelligence artificielle (IA) dans la vie de tous les jours prend rapidement de l'ampleur, mais cette tendance inquiète de plus en plus les spécialistes. Le personnel de NYU a préparé une mise en garde sur les risques liés à l'utilisation de I. I. Le rapport du groupe AI Now ne dit rien de nouveau, mais dans la pratique mondiale, la question de la nécessité de limiter le travail de la pensée artificielle se pose de plus en plus.

Presque tous les visionnaires du progrès technologique ont parlé des menaces potentielles pour l'IA. Stephen Hawking a exprimé en novembre de l'année dernière les principales craintes accompagnant les réflexions sur le développement de la technologie. À son avis, les ordinateurs apprendront tôt ou tard à se reproduire. Les créatures biologiques sont susceptibles de perdre au profit de l'intelligence du silicium à la fois en termes de capacités mentales et en termes d'adaptabilité à l'environnement, en particulier sur une autre planète. Tôt ou tard, les robots intelligents considéreront les humains comme une forme obsolète et voudront s'en débarrasser.

Les paroles de Hawking sonnent toujours comme une histoire d'horreur, jouée des dizaines de fois dans des films et des livres, mais même ceux qui travaillent sur la mise en œuvre de systèmes intelligents ont de plus en plus peur de l'avenir avec l'IA, bien que certains considèrent ces craintes comme prématurées. «Craindre le développement de l'IA aujourd'hui, c'est comme s'inquiéter de la surpopulation de Mars», a déclaré Andrew Ng, directeur de Google Brain. Cependant, il n'a pas rassuré tout le monde.

Image
Image

Parmi les plus grandes phobies associées à l'introduction d'un ordinateur dans toutes les sphères de la vie, trois méritent d'être notées. Premièrement, l'esprit informatique sera utilisé comme une arme de guerre, qui surpassera considérablement même les armes nucléaires en puissance destructrice. La seconde est que l'IA asservira les humains. Troisièmement, comme toute création humaine, l'ordinateur est sujet aux erreurs. Les trois points peuvent être discutés plus en détail.

Le 21 août 2017, des experts de premier plan dans le domaine de la recherche et de la mise en œuvre de l'intelligence artificielle, dont des chefs d'entreprises telles que SpaceX et Deep Mind, ont adressé une lettre ouverte à l'ONU. Dans le texte, ils mettent en garde la communauté mondiale contre le développement d'armes autonomes létales, qu'il s'agisse de robots ou d'autres mécanismes conçus pour tuer l'ennemi. Les auteurs du document ont attiré l'attention sur les conséquences fatales de l'utilisation de ces armes. Avec son efficacité phénoménale, il est juste de se demander à qui il tombera. Il peut être utilisé à la fois par un cercle restreint d’élites et de terroristes.

Les auteurs de la lettre ont appelé l'organisation de contrôle, et avec elle la communauté scientifique, à définir la portée de l'utilisation nocive de l'IA. La responsabilité qui incombe à une personne pour sa propre création l'oblige à effectuer un travail sérieux pour prévenir les risques. En plus des lois, leurs créateurs doivent également limiter la puissance des robots, qui devront se demander comment éteindre les machines dans des cas extrêmes.

Image
Image

Vidéo promotionelle:

L'abus politique des systèmes électroniques a déjà été démontré par le travail des réseaux sociaux et des algorithmes d'analyse de données. Au printemps de cette année, un scandale avec Cambridge Analytica a éclaté dans le monde. Ses spécialistes ont mené une analyse approfondie des données des utilisateurs et placé des publicités sur Facebook, adaptées individuellement pour chaque personne.

Les employés de l'entreprise ont non seulement franchi le cadre éthique, mais ont également appliqué des technologies modernes, dont le travail était impossible à analyser. L'efficacité de l'apprentissage automatique est un thème récurrent chez les plus grands mathématiciens. Ils admettent à l'unisson qu'ils sont étonnés du succès extraordinaire des programmes informatiques, mais ils sont complètement incapables de comprendre le travail d'un système complexe. Au Myanmar, en avril de cette année, les publications sur Facebook ont également provoqué des troubles parmi les masses, mais contrairement aux États-Unis, où des manifestations ont eu lieu, dans l'État asiatique, il y a eu un massacre, qui a tué plusieurs centaines de personnes. La manipulation d'un grand nombre de personnes est une réalité et les robots ici peuvent jouer une blague cruelle avec nous.

Image
Image

Il convient de rappeler le même Facebook, où les chatbots basés sur l'IA ont été lancés. Des assistants virtuels ont été formés pour mener un dialogue avec l'interlocuteur. Au fil du temps, les robots sont devenus impossibles à distinguer des personnes réelles, puis les auteurs ont décidé de rassembler les robots. Au fil du temps, les bots ont commencé à raccourcir les structures lexicales et à échanger du charabia. Les médias ont gonflé une sensation de l'actualité, disent-ils «les machines se sont révoltées». Mais en mettant de côté l'exagération des journalistes, il est juste d'admettre que dans le cas où des machines commencent à communiquer entre elles, une personne peut ne pas s'en apercevoir. Et comment ils y vivront leur propre vie - personne ne le sait.

La structure de plus en plus complexe de l'esprit informatique nous éloigne chaque jour de la compréhension des principes de son travail. Mais si la plupart des algorithmes font leur travail, même aujourd'hui, les machines complexes sont loin d'être idéales et font des erreurs. Pour le développement ultérieur de l'IA, il est important de comprendre non pas tant ses forces que ses vulnérabilités. C'est là-dessus que se concentrent un grand nombre de groupes scientifiques, parmi lesquels se trouve un spécialiste du MIT Anish atali. Il y a quelques jours à peine, il a parlé aux journalistes des erreurs les plus courantes dans les systèmes de reconnaissance d'images.

Ses collègues ont montré des objets à la machine et ont constaté que souvent des objets individuels étaient mal perçus par la vision électronique. L'ordinateur pourrait appeler une balle de baseball une tasse de café et une tortue imprimée en 3D une machine de l'armée. Le groupe a déjà collecté environ 200 éléments qui sont des algorithmes trompeurs.

Image
Image

L'intelligence artificielle, au lieu de percevoir un objet dans son ensemble, se concentre sur ses paramètres individuels. L'IA a tendance à apprendre à partir d'un échantillon «parfait». Face à des phénomènes non conformes, il ne peut pas toujours abandonner le processus de traitement habituel. Au lieu d'admettre son incapacité à traiter l'image, il continue d'essayer de lire l'image et cela conduit à des résultats parfois amusants. Au lieu de la forme d'une tortue, le cerveau électronique a essayé de lire sa texture, semblable au camouflage. Pour à peu près la même raison, les pilotes automatiques de voitures électriques ne sont pas encore fiables à 100%. Il est difficile pour une voiture de voir la silhouette et de supposer qu'elle se compose d'éléments séparés.

Et si dans les années à venir certaines lacunes peuvent être corrigées, rien ne garantit que les hackers n'exploiteront pas la vulnérabilité. Les hackers d'appareils électroniques représentent aujourd'hui presque la principale cause de peur. Une petite équipe de programmeurs peut non seulement accéder aux informations personnelles, mais aussi reconfigurer des systèmes autonomes, prenant le contrôle d'outils d'une puissance colossale. Et puis nous serons tous en difficulté. Mais la principale conclusion qui peut être tirée est peut-être la traditionnelle - il ne faut pas avoir peur des voitures, mais des gens.

Alexandre Lavrenov

Recommandé: