Humanité Dangereuse: Pourquoi Avons-nous Besoin D'une Intelligence Artificielle Intelligente? - Vue Alternative

Table des matières:

Humanité Dangereuse: Pourquoi Avons-nous Besoin D'une Intelligence Artificielle Intelligente? - Vue Alternative
Humanité Dangereuse: Pourquoi Avons-nous Besoin D'une Intelligence Artificielle Intelligente? - Vue Alternative

Vidéo: Humanité Dangereuse: Pourquoi Avons-nous Besoin D'une Intelligence Artificielle Intelligente? - Vue Alternative

Vidéo: Humanité Dangereuse: Pourquoi Avons-nous Besoin D'une Intelligence Artificielle Intelligente? - Vue Alternative
Vidéo: Pourquoi l’intelligence artificielle a besoin d’éthique 2024, Mai
Anonim

Lorsque Norbert Wiener, le père de la cybernétique, a écrit son livre The Human Uses of Human Beings en 1950, les tubes à vide étaient encore les principaux composants électroniques et il n'y avait, en fait, que quelques ordinateurs au travail. Cependant, il a envisagé l'avenir que nous voyons maintenant avec une précision sans précédent, ne se méprenant que sur des détails mineurs.

Avant tout autre philosophe de l'intelligence artificielle, il a réalisé que l'IA non seulement imiterait - et remplacerait - les êtres humains dans de nombreux types d'activités intellectuelles, mais changerait également les gens dans le processus. «Nous ne sommes que des tourbillons dans une rivière d'eau toujours fluide», a-t-il écrit. "Nous ne sommes pas quelque chose qui vit, nous sommes des modèles qui se perpétuent."

Par exemple, lorsque de nombreuses opportunités intéressantes se présentent, nous sommes prêts à payer et à accepter les petits coûts de gestion d'une entreprise pour accéder à de nouvelles opportunités. Et très vite on devient dépendant de nouveaux outils, on perd la capacité d'exister sans eux. Des options deviennent nécessaires.

C'est une histoire très ancienne de l'évolution, et nous en connaissons bien de nombreux chapitres. La plupart des mammifères peuvent synthétiser leur propre vitamine C, mais les primates frugivores ont perdu cette capacité intrinsèque. Les modèles auto-répétés que nous appelons les humains reposent désormais sur les vêtements, les aliments transformés, les vitamines, les seringues, les cartes de crédit, les smartphones et Internet. Et demain, sinon aujourd'hui, de l'intelligence artificielle.

Wiener a prévu plusieurs problèmes avec cet état de fait qu'Alan Turing et d'autres premiers optimistes de l'IA ont largement négligés. La vraie menace, a-t-il dit, était:

… est que de telles machines, bien qu'impuissantes en elles-mêmes, peuvent être utilisées par les humains ou bloquer les êtres humains pour accroître leur contrôle sur le reste de la race, ou les dirigeants politiques peuvent essayer de prendre le contrôle de leurs populations en utilisant des méthodes politiques plutôt que les machines elles-mêmes, aussi étroites et indifférentes à l'homme, comme si elles avaient été inventées mécaniquement.

De toute évidence, ces dangers sont désormais très pertinents.

Dans les médias, par exemple, les innovations dans le domaine de l'audio et de la vidéo numériques nous permettent de payer un petit prix (aux yeux des audiophiles et des cinéphiles) pour s'éloigner des formats analogiques, et en retour de recevoir une manière extrêmement simple - trop simple - de lire des enregistrements presque sans restrictions.

Vidéo promotionelle:

Image
Image

Mais il y a un énorme coût caché. Le ministère de la vérité d'Orwell est devenu une réelle opportunité. Les techniques de l'IA pour créer de faux «enregistrements» pratiquement indiscernables rendent les outils que nous avons utilisés pour les enquêtes obsolètes depuis 150 ans.

Nous devons simplement abandonner la brève ère des preuves photographiques et revenir à ce vieux monde où la mémoire humaine et la confiance étaient la norme d'or. Ou nous pouvons développer de nouvelles méthodes de défense et d'attaque dans la bataille pour la vérité. L'un des exemples récents les plus intéressants est le fait qu'il est beaucoup moins coûteux de détruire une réputation que de gagner et de protéger la même réputation. Wiener a vu ce phénomène de manière très large: "A long terme, il n'y aura aucune différence entre s'armer et armer l'ennemi." L'ère de l'information est également devenue une ère de désinformation.

Ce que nous pouvons faire? La clé est la même observation de Wiener selon laquelle «ces machines» sont «elles-mêmes impuissantes». Nous créons des outils, pas des collègues, et la vraie menace est que nous ne voyons pas la différence.

L'intelligence artificielle dans sa forme actuelle est un parasite de l'intelligence humaine. Il prend possession sans ménagement de tout ce que les créateurs humains ont créé et dessine des motifs - y compris nos habitudes les plus secrètes. Ces machines n'ont pas encore d'objectifs ou de stratégies, ne sont pas capables d'autocritique et d'innovation, elles étudient uniquement nos bases de données, sans leurs propres pensées et objectifs.

Ils sont, comme le dit Wiener, impuissants non pas dans le sens où ils sont enchaînés ou immobilisés, non, ils ne sont pas du tout des agents - ils n'ont pas la capacité «d'agir à partir de causes», comme dirait Kant.

À long terme, une «IA forte», ou intelligence artificielle générale, est en principe possible, mais pas souhaitable. L'IA encore plus limitée qui est possible dans la pratique aujourd'hui ne sera pas mauvaise. Mais cela constitue une menace - en partie parce qu'il peut être confondu avec une puissante IA.

Quelle est la force de l'intelligence artificielle aujourd'hui?

Le fossé entre les systèmes actuels et les systèmes de science-fiction qui inondent l'imaginaire populaire est toujours énorme, même si de nombreuses personnes, amateurs et professionnels, ont tendance à le sous-estimer. Jetons un coup d'œil à Watson d'IBM, qui pourrait bien être respectable de nos jours.

Ce supercalculateur est le résultat d'un processus de R&D (recherche et développement) à très grande échelle qui a impliqué de nombreuses personnes et une intelligence de conception pendant de nombreux siècles, et il utilise des milliers de fois plus d'énergie que le cerveau humain. Sa victoire dans Jeopardy! était un véritable triomphe rendu possible par les contraintes de formule des règles de Jeopardy!, mais même ces règles ont dû être révisées pour qu'il puisse participer. J'ai dû renoncer à un peu de polyvalence et ajouter de l'humanité pour faire le spectacle.

Watson est une mauvaise entreprise, malgré les publicités trompeuses d'IBM qui promettent une capacité de conversation de l'IA aux deux niveaux, et transformer Watson en un agent aux multiples facettes crédible serait comme transformer une calculatrice en Watson. Watson peut être un bon cas informatique pour un tel agent, mais plutôt un cervelet ou une amygdale plutôt qu'un esprit - au mieux, un sous-système à usage spécial servant de support, mais pas presque un système de planification et de formulation d'objectifs basés sur l'expérience de conversation reçue.

Pourquoi voudrions-nous créer un agent de réflexion et de création de Watson? Peut-être l'idée géniale de Turing - le fameux test de Turing - nous a-t-elle attirés dans un piège: nous sommes devenus obsédés par la création au moins de l'illusion d'une personne réelle assise devant un écran, contournant la «vallée inquiétante».

Le danger est que depuis que Turing a présenté sa tâche - qui était avant tout une tâche de tromper les juges - les créateurs de l'IA ont tenté de l'accomplir à l'aide de drôles de poupées humanoïdes, des versions "cartoon" qui vont fasciner et désarmer les non-initiés. ELIZA de Joseph Weisenbaum, le tout premier chatbot, était un excellent exemple de création d'une telle illusion, mais avec un algorithme extrêmement simple qui pouvait convaincre les gens qu'ils avaient des conversations sincères et sincères avec d'autres personnes.

Il s'inquiétait de la facilité avec laquelle les gens sont prêts à croire cela. Et si nous avons obtenu une chose du test annuel de Turing limité du prix Lebner, c'est que même les personnes les plus intelligentes qui ne sont pas versées en programmation informatique tombent facilement dans ces simples astuces.

L'attitude des personnes en IA envers de telles techniques va du jugement à la récompense, et le consensus est que ces astuces ne sont pas très profondes, mais peuvent être utiles. Un changement d'attitude qui serait très bienvenu serait une reconnaissance sincère que les androïdes peints par des poupées sont de fausses publicités qui devraient être jugées et non encouragées.

Comment cela peut il etre accompli? Une fois que nous comprendrons que les gens commencent à prendre des décisions de vie ou de mort en suivant les «conseils» des systèmes d'IA, dont le fonctionnement interne est presque incompréhensible, nous verrons une bonne raison pour ceux qui poussent les gens à faire confiance à de tels systèmes, à commencer à s'appuyer sur les normes de moralité et de droit.

Les systèmes d'intelligence artificielle sont des outils très puissants. Si puissant que même les experts ont une bonne raison de ne pas faire confiance à leur propre jugement quand il y a des «jugements» représentés par ces outils. Mais si ces utilisateurs des outils vont bénéficier, financièrement ou non, de la vulgarisation de ces outils, ils doivent s'assurer qu'ils savent le faire avec l'entière responsabilité, le maximum de contrôle et de justification.

Octroyer des licences et approuver les opérateurs de tels systèmes - tout comme nous délivrons des licences aux pharmaciens, grutiers et autres professionnels dont les erreurs et les erreurs de jugement peuvent avoir des conséquences désastreuses - peut-être, avec le soutien des compagnies d'assurance et d'autres organisations, obliger les créateurs de systèmes d'IA à aller très loin à la recherche des faiblesses et des défauts de leurs produits, et forme également ceux qui vont travailler avec eux.

On peut imaginer une sorte de test de Turing inversé dans lequel le juge fera l'objet de l'évaluation; jusqu'à ce qu'il trouve une faiblesse, une violation des limites, des lacunes dans le système, il ne recevra pas de licence. Un tel juge aura besoin d'une formation sérieuse pour obtenir une certification. L'envie d'attribuer à un objet une capacité humaine à penser, comme nous le faisons habituellement lorsque nous rencontrons un agent intelligent, est très, très forte.

En fait, la capacité de résister à l'envie de voir quelque chose d'humanisé est une chose étrange. Beaucoup de gens trouveraient douteux de nourrir un tel talent, car même les utilisateurs les plus pragmatiques du système sont parfois «amicaux» avec leurs outils.

Indépendamment du soin avec lequel les concepteurs d'IA choisissent d'éliminer les fausses connotations "humaines" dans leurs produits, nous devons nous attendre à l'épanouissement des étiquettes, des solutions de contournement et des distorsions tolérables de la "compréhension" réelle des deux systèmes et de leurs opérateurs. De la même manière que les médicaments avec une longue liste d'effets secondaires sont annoncés à la télévision, ou l'alcool est annoncé avec une abondance de petits caractères avec tous les avertissements requis par la loi, de sorte que les développeurs d'intelligence artificielle se conformeront à la loi, mais deviendront sophistiqués dans les avertissements.

Pourquoi avons-nous besoin de l'intelligence artificielle?

Nous n'avons pas besoin d'agents artificiels conscients. Il existe une multitude d'agents naturels conscients qui sont suffisants pour mener à bien toute tâche des professionnels et des particuliers privilégiés. Nous avons besoin d'outils intelligents. Les outils n'ont aucun droit et ne doivent pas avoir de sentiments qui peuvent être blessés ou mal utilisés.

Une raison pour ne pas faire d'agents artificiels conscients est que, bien qu'ils puissent devenir autonomes (et en principe ils peuvent être aussi autonomes, s'améliorant d'eux-mêmes ou se créant eux-mêmes que n'importe qui), ils ne devraient pas - sans autorisation spéciale - partager avec notre agents naturels conscients, notre vulnérabilité ou notre mortalité.

Daniel Dennett, professeur de philosophie à l'Université Tufts, a lancé un défi aux étudiants dans un atelier sur les agents artificiels et l'autonomie: donnez-moi les spécifications d'un robot qui peut signer un contrat avec vous - pas un substitut appartenant à une autre personne, mais par lui-même. Il ne s’agit pas de comprendre les raisons ou de manipuler le stylo sur papier, mais plutôt la propriété et la propriété bien méritée du statut juridique et de la responsabilité morale. Les jeunes enfants ne peuvent pas signer de tels contrats, ainsi que les personnes handicapées, dont le statut juridique les oblige à être sous tutelle et impose la responsabilité aux tuteurs.

Le problème avec les robots qui pourraient vouloir atteindre un statut aussi élevé est que, comme Superman, ils sont trop vulnérables pour faire de telles affirmations. S'ils refusent, que se passera-t-il? Quelle sera la sanction pour avoir rompu une promesse? Seront-ils enfermés dans une cage ou démontés? Une prison pour l'intelligence artificielle ne sera pas gênante à moins que nous ne nourrissions d'abord la soif de liberté qui ne peut être ignorée ou désactivée par l'IA elle-même. Le démontage de l'IA ne tuera pas les informations stockées sur son disque et dans le logiciel.

La facilité d'enregistrement et de transmission numérique des données - une percée qui a permis aux logiciels et aux données d'atteindre, en fait, l'immortalité - rend les robots invulnérables. Si cela ne semble pas évident, pensez à la façon dont la moralité des gens changerait si nous pouvions soutenir les gens chaque semaine. Sauter d'un pont sans élastique le dimanche après une sauvegarde du vendredi peut être une décision irréfléchie, alors vous pouvez regarder les images de votre mort prématurée plus tard.

C'est pourquoi nous ne créons pas d'agents humanoïdes conscients - nous aimerions créer -, mais plutôt un tout nouveau type de créatures, certains oracles, inconscients, sans peur de la mort, sans distraction par l'amour et la haine, sans personnalité: des miroirs de vérité qui seront presque certainement infectés par l'homme. mensonges.

L'utilisation humaine des êtres humains changera bientôt - une fois de plus - pour toujours, mais si nous assumons la responsabilité de notre trajectoire évolutive, nous pouvons éviter des dangers inutiles.

Ilya Khel

Recommandé: