Toutes Nos Connaissances Sur L'intelligence Artificielle Ne Sont Que Des Illusions - Vue Alternative

Table des matières:

Toutes Nos Connaissances Sur L'intelligence Artificielle Ne Sont Que Des Illusions - Vue Alternative
Toutes Nos Connaissances Sur L'intelligence Artificielle Ne Sont Que Des Illusions - Vue Alternative

Vidéo: Toutes Nos Connaissances Sur L'intelligence Artificielle Ne Sont Que Des Illusions - Vue Alternative

Vidéo: Toutes Nos Connaissances Sur L'intelligence Artificielle Ne Sont Que Des Illusions - Vue Alternative
Vidéo: Conférence « L’humanité à l’ère des métaux rares : défis et enjeux à l’échelle de la planète » 2024, Mai
Anonim

L'un des tests les plus difficiles de l'intelligence artificielle a peut-être été le jeu d'échecs qui s'est déroulé il y a près de 20 ans entre l'ordinateur Deep Blue et le champion du monde d'échecs Garry Kasparov. La voiture a gagné. Pour le moment, une série de jeux dans le jeu logique de go s'est terminée, où l'IA AlphaGo de DeepMind (propriétaire de Google) et le légendaire champion de go de Chine Li Si Dol ont concouru. Dans quatre des cinq jeux, la machine a gagné, montrant sa supériorité sur l'humain dans ce jeu. Le jeu incroyablement complexe entre l'homme et l'IA montre que l'intelligence artificielle s'est développée très fortement pendant cette période. Il semble que le jour fatidique, où les machines deviennent vraiment plus intelligentes que les humains, est maintenant plus proche que jamais. Cependant, il semble que beaucoup ne comprennent pas du tout, mais se trompent même sur les conséquences qui pourraient nous attendre à l'avenir.

Nous sous-estimons certaines conséquences très graves et même dangereuses du développement de l'intelligence artificielle. L'année dernière, le co-fondateur de SpaceX, Elon Musk, a publié une déclaration dans laquelle il s'est dit préoccupé par l'éventuel asservissement du monde par l'intelligence artificielle, ce qui a à son tour suscité une énorme quantité de commentaires de la part des partisans et des opposants à cette opinion.

Image
Image

Pour un avenir si fondamentalement révolutionnaire qui peut nous attendre, il est surprenant qu'il y ait tant de désaccords aujourd'hui sur la question de savoir si cela se produira et ce que cela finira par devenir. Il est particulièrement étrange de nier les avantages incroyables que nous pouvons tirer de la création d'une IA vraiment intelligente, bien sûr, en tenant compte de tous les risques possibles. Toutes ces questions sont incroyablement difficiles pour obtenir les réponses dont vous avez besoin, car l'IA, contrairement à toutes les autres inventions de l'humanité, peut vraiment «rajeunir» cette humanité ou la détruire complètement.

Maintenant, il est difficile de comprendre ce qu'il faut croire et ce qu'il faut espérer. Cependant, grâce aux pionniers de l'informatique, aux neuroscientifiques et aux théoriciens du développement de l'IA, une image claire commence lentement à s'éclaircir. Vous trouverez ci-dessous une liste des idées fausses et des mythes les plus courants concernant l'intelligence artificielle.

Nous ne créerons jamais d'IA avec une intelligence humanoïde

La réalité, à son tour, suggère que nous avons déjà des ordinateurs qui correspondent et même dépassent les capacités humaines dans certains domaines. Prenez les échecs ou le même jeu de go, le trading en bourse, ou le rôle d'un interlocuteur virtuel. Les ordinateurs et les algorithmes qui les contrôlent ne feront que s’améliorer avec le temps, et ce n’est qu’une question de temps avant qu’ils deviennent égaux aux capacités humaines.

Vidéo promotionelle:

Image
Image

Le chercheur de l'Université de New York, Gary Marcus, a dit un jour que «pratiquement tout le monde» qui travaille avec l'IA pense que les machines nous dépasseront un jour:

"Le seul différend entre supporters et sceptiques est le moment choisi pour cet événement."

Les futuristes comme Ray Kurzweil pensent que cela pourrait arriver dans les décennies à venir, tandis que d'autres disent que cela prendra plusieurs siècles.

Les sceptiques de l'IA ne sont pas concluants dans leur preuve que la création de l'intelligence artificielle en tant que quelque chose d'unique et très similaire à un véritable cerveau humain vivant en termes technologiques est quelque part au-delà de la réalité. Notre cerveau est aussi une machine. Machine biologique. Il existe dans le même monde et obéit aux mêmes lois de la physique que tout le reste. Et avec le temps, nous comprendrons pleinement le principe de son travail.

L'IA aura conscience

Il existe un consensus général sur le fait que l'intelligence artificielle sera consciente. Autrement dit, l'IA pensera de la même manière qu'un humain. En outre, certains critiques, comme le co-fondateur de Microsoft Paul Allen, estiment qu'en raison d'une base théorique incomplète décrivant les mécanismes et les principes de la conscience de soi, nous n'avons pas encore créé une intelligence artificielle générale, c'est-à-dire une intelligence capable d'accomplir des tâches intellectuelles avec lesquelles une personne peut gérer. Cependant, selon Murray Shanahan, professeur adjoint au département de robotique cognitive de l'Imperial College de Londres, nous ne devrions pas assimiler les deux.

Image
Image

«La conscience de soi est certainement un sujet de recherche très intéressant et important, mais je ne crois pas que la conscience de soi devrait être un attribut obligatoire de l'intelligence artificielle de type humain», déclare Shanahan.

"Dans l'ensemble, nous n'utilisons le terme" conscience de soi "que pour indiquer plusieurs attributs psychologiques et cognitifs qui sont généralement liés chez une personne."

Il est possible d'imaginer une voiture très intelligente qui ne possède pas un ou plusieurs de ces attributs. Un jour, nous serons en mesure de construire une IA vraiment incroyablement intelligente, mais en même temps dépourvue de capacité de conscience de soi, ainsi que de compréhension subjective et consciente du monde qui nous entoure. Shanahan note que l'unification de l'intelligence et de la conscience de soi au sein de la machine sera toujours possible, mais nous ne devons pas négliger le fait que ce sont deux concepts complètement séparés l'un de l'autre.

Et bien qu'une des variantes du "Test de Turing", dans laquelle une machine a montré qu'elle n'est pas différente d'une personne, a été réussie, cela ne signifie pas du tout que cette machine a une conscience. De notre point de vue (humain), l'intelligence artificielle avancée peut nous apparaître comme quelque chose qui possède une conscience de soi, mais la machine elle-même ne sera pas plus consciente d'elle-même que la même pierre ou calculatrice.

Il ne faut pas avoir peur de l'IA

En janvier de cette année, le fondateur de Facebook, Mark Zuckerberg, a partagé ses réflexions sur la façon dont nous ne devrions pas avoir peur de l'IA, ajoutant que cette technologie peut apporter d'énormes avantages dans le monde entier. La vérité est qu'il n'a que partiellement raison. Nous pourrons en effet récolter des bénéfices incroyables avec l'IA à notre disposition (des voitures autonomes aux nouvelles découvertes en médecine), mais personne ne peut garantir que chaque application de l'IA apportera nécessairement des bénéfices.

Un système hautement intelligent, peut-être, saura tout ce qui est nécessaire pour certaines tâches (par exemple, résoudre une situation financière mondiale complexe ou pirater les systèmes informatiques de l'ennemi), mais en dehors de tâches hautement spécialisées, le potentiel de l'IA est encore totalement flou, et donc potentiellement dangereux. Par exemple, le système de DeepMind est spécialisé dans le jeu de go, mais il n'a aucune capacité (ni raison) d'explorer des zones en dehors de ce domaine.

Virus informatique Flame, dont la tâche était de suivre les pays du Moyen-Orient

Image
Image

Beaucoup de ces systèmes peuvent poser de sérieux risques pour la sécurité. Un bon exemple est le virus Stuxnet puissant et très rusé, un ver militarisé créé par l'armée américaine et israélienne pour infiltrer et attaquer les centrales nucléaires iraniennes. Seul ce programme malveillant a infecté (accidentellement ou délibérément) l'une des centrales nucléaires russes.

Un autre exemple est le virus Flame, développé pour le cyberespionnage ciblé au Moyen-Orient. Il est facile d'imaginer comment les «futures versions» des virus Stuxnet et Flame iront indépendamment au-delà des tâches qui leur sont assignées et pourront infecter presque toute l'infrastructure d'un pays. Et ils le feront très tranquillement et imperceptiblement.

La superintelligence artificielle sera trop intelligente pour faire des erreurs

Richard Luzmore, mathématicien, chercheur en intelligence artificielle et fondateur de la société de robotique Surfing Samurai Robots, estime que la plupart des scénarios apocalyptiques de l'IA semblent improbables car ils sont tous largement basés sur ce que l'IA dira un jour: «Je comprends que la destruction people est une erreur dans le code de mon programme, mais je dois quand même suivre la tâche."

Image
Image

Luzmore pense que si l'IA se comporte selon ce scénario, elle fera face à des contradictions logiques qui remettront en question l'ensemble de sa base de connaissances accumulée et conduira éventuellement à sa propre conscience de sa stupidité et de son inutilité.

Le chercheur estime également que les personnes qui disent que "l'IA ne fera que ce qui est inclus dans son programme" se trompent, tout comme ces personnes qui ont dit les mêmes mots, mais envers les ordinateurs, déclarant que les systèmes informatiques n'auront jamais l'universalité.

Peter McIntyre et Stuart Armstrong, tous deux à l'Institute for the Future of Humanity de l'Université d'Oxford, à leur tour, ne sont pas d'accord avec cette opinion, arguant que le comportement de l'IA sera obligatoire et largement justifié par le code du programme. Les scientifiques ne croient pas que l'IA ne fera jamais d'erreur ou, au contraire, sera trop stupide pour comprendre exactement ce que nous attendons d'eux.

"Par définition, la superintelligence artificielle (ISI) est un agent dont l'intelligence dépassera à plusieurs reprises les meilleurs esprits de l'humanité dans presque tous les domaines", déclare McIntyre.

"Il comprendra certainement ce que nous attendons de lui."

McIntyre et Armstrong pensent que l'IA n'effectuera que les tâches pour lesquelles elle a été programmée, mais si elle se développe d'une manière ou d'une autre, alors, très probablement, elle essaiera de déterminer à quel point ses actions différeront des tâches humaines et y seront inhérentes. lois.

McIntyre compare la situation future des humains à celle des souris. Les souris ont un instinct puissant pour trouver de la nourriture et un abri, mais leurs objectifs sont très souvent en conflit avec une personne qui ne veut pas les voir chez elle.

"Tout comme notre connaissance des souris et de leurs désirs, le système de superintelligence peut aussi tout savoir sur nous et savoir ce que nous voulons, mais en même temps il sera complètement indifférent à nos désirs."

Une solution simple élimine le problème de contrôle de l'IA

Comme le montre le film "From the Machine", il sera très difficile de contrôler l'IA, qui sera bien plus intelligente que nous

Image
Image

Si nous supposons qu'un jour nous créerons une superintelligence qui sera plus intelligente que les humains, alors nous devrons faire face à un problème sérieux, le problème du contrôle. Les futuristes et les théoriciens de l'intelligence artificielle ne sont pas encore en mesure d'expliquer comment nous pouvons contrôler et contenir l'ISI après sa création. On ne sait pas non plus comment nous pouvons nous assurer qu'il sera amical envers les gens. Plus récemment, des chercheurs du Georgia Institute of Technology (États-Unis) ont naïvement suggéré que l'IA pourrait apprendre et absorber les valeurs humaines et la connaissance des normes sociales en lisant simplement de simples contes de fées. Oui, oui, de simples contes de fées pour enfants et des histoires que les parents nous ont lues dans leur enfance. Mais en réalité, tout s'avérera bien plus compliqué que tout cela.

«De nombreuses soi-disant« solutions »ont été proposées pour la question du contrôle de l'intelligence artificielle», déclare Stuart Armstrong.

Un exemple de telles solutions peut être la programmation de l'ISI de telle sorte qu'il essaie constamment de plaire ou de plaire à une personne. Une alternative serait d'intégrer des concepts tels que l'amour ou le respect dans son code source. Et afin d'éviter un tel développement du scénario, selon lequel l'IA peut simplifier tous ces concepts et percevoir ce monde à travers le prisme de ces concepts super-simplifiés, en le divisant uniquement en noir et blanc, elle peut être programmée pour comprendre et accepter la diversité intellectuelle, culturelle et sociale.

Les trois lois de la robotique d'Isaac Asimov s'intègrent parfaitement dans le concept de fiction, mais en réalité, nous avons besoin de quelque chose de plus complet pour aborder la question du contrôle.

Image
Image

Malheureusement, ces solutions sont trop simples et ressemblent à une tentative d'intégrer toute la complexité des goûts et des dégoûts humains dans une définition ou un concept général, ou à une tentative d'intégrer toute la complexité des valeurs humaines en un mot, une phrase ou une idée. Essayez, par exemple, d'insérer dans ce cadre une définition cohérente et adéquate d'une chose telle que le «respect».

«Bien sûr, il ne faut pas penser que des options aussi simples sont totalement inutiles. Beaucoup d'entre eux offrent une excellente raison de réfléchir et peuvent peut-être stimuler la recherche d'une solution au problème ultime », déclare Armstrong.

"Mais nous ne pouvons pas nous fier uniquement à eux sans un travail plus complexe, sans recherche claire et sans recherche des conséquences de l'utilisation de certaines solutions."

Nous serons détruits par la superintelligence artificielle

Personne ne peut garantir que l'IA nous détruira un jour, tout comme personne ne peut dire avec certitude que nous ne pourrons pas trouver des moyens de contrôler et d'utiliser l'IA à nos propres fins. Comme l'a dit un jour l'expert américain en intelligence artificielle Eliezer Yudkowski: "L'IA ne peut pas vous aimer ou vous haïr, mais vous êtes fait d'atomes qu'elle pourrait utiliser pour autre chose."

Le philosophe d'Oxford Nick Bostrom, dans son livre Superintelligence: Ways, Dangers and Strategies, écrit que la véritable superintelligence pourra un jour se réaliser, ce qui la rendra plus dangereuse que toute invention jamais créée par l'homme. Des penseurs modernes éminents tels qu'Elon Musk, Bill Gates et Stephen Hawking (dont beaucoup pensent que «l'IA pourrait être la pire erreur de l'histoire humaine») sont plus susceptibles d'être d'accord avec cette opinion et sonnent déjà l'alarme.

Peter McIntyer pense que pour la plupart des tâches que la superintelligence peut se fixer, les gens ressembleront à un lien supplémentaire.

«L'IA pourra un jour conclure - et il faut noter qu'elle le calculera assez correctement - que les gens ne veulent pas l'utiliser pour maximiser la rentabilité d'une entreprise en particulier à tout prix, quelles qu'en soient les conséquences pour les consommateurs, l'environnement et les êtres vivants. Par conséquent, il aura une énorme incitation à développer un plan et une stratégie, grâce auxquels une personne ne pourra pas interférer avec la solution de la tâche, en la modifiant ou même en désactivant l'IA."

Selon MacIntyer, si les tâches de l'IA sont directement opposées aux nôtres, cela lui donnera de bonnes raisons de ne pas nous laisser l'arrêter. Et si l'on considère que le niveau de son intelligence sera beaucoup plus élevé que le nôtre, il sera vraiment très, très difficile de l'arrêter, si possible.

Cependant, il est impossible de dire quoi que ce soit avec certitude maintenant, et personne ne pourra dire à quelle forme d'IA nous devrons faire face et comment elle peut menacer l'humanité. Comme Elon Musk l'a dit un jour, l'IA peut en fait être utilisée pour contrôler, suivre et contrôler d'autres IA. Et peut-être que les valeurs humaines et la convivialité initiale des gens y seront introduites.

La superintelligence artificielle sera amicale

Le philosophe Emmanuel Kant croyait que l'intelligence est fortement liée aux principes de la morale. Dans son travail Singularity: A Philosophical Analysis, le neuroscientifique David Chalmers a pris la célèbre idée de Kant comme base et a essayé de l'appliquer pour analyser la formation de la surintelligence artificielle.

Image
Image

«Si les principes décrits dans cet article sont corrects, alors avec le développement aigu de l'IA, il faut s'attendre à un développement net des principes moraux. Un développement ultérieur conduira à l'émergence de systèmes ISI, qui posséderont supermorale et superintelligence. Par conséquent, nous ne devons nous attendre qu'à des qualités bienveillantes de leur part."

La vérité est que l'idée d'une IA avancée avec des principes moraux et une vertu exceptionnelle ne tient pas la route. Comme le souligne Armstrong, le monde regorge de criminels de guerre intelligents. L'intellect et la moralité chez une personne, par exemple, ne sont en aucun cas liés, donc le scientifique se demande qu'une telle relation existera dans d'autres formes d'intelligence.

«Les personnes intelligentes qui se comportent de manière immorale ont tendance à créer beaucoup plus de problèmes et de souffrances que leurs homologues moins intelligents. L'intelligence leur donne la capacité d'être plus sophistiqués dans leurs mauvaises actions plutôt que dans leurs bonnes actions », dit Armstrong.

McIntyre explique que la capacité d'un agent à accomplir une tâche donnée n'a rien à voir avec ce qu'est cette tâche.

«Nous serons très chanceux si nos IA deviennent plus morales, pas seulement intelligentes. Miser sur la chance est, bien sûr, la dernière chose dans ce domaine, mais c'est peut-être la chance qui déterminera notre position à l'avenir », déclare le chercheur.

Les risques associés à l'IA et à la robotique sont les mêmes

C'est une idée fausse particulièrement courante utilisée dans les médias, ainsi que dans les superproductions hollywoodiennes comme The Terminator.

Image
Image

Si la superintelligence artificielle telle que Skynet, par exemple, veut vraiment détruire toute l'humanité, il est peu probable qu'il utilisera des androïdes paramilitaires avec des mitrailleuses dans chaque main. Sa pensée rusée et efficace lui permettra de comprendre qu'il serait beaucoup plus pratique d'utiliser, par exemple, un nouveau type de peste biologique ou, par exemple, une catastrophe nanotechnologique. Ou peut-être qu'il prendra et détruira simplement l'atmosphère de notre planète. L'IA est potentiellement dangereuse non seulement parce que son développement est étroitement lié au développement de la robotique. La raison de son danger potentiel réside dans les méthodes et les moyens par lesquels il peut déclarer sa présence au monde.

L'IA présentée dans la science-fiction reflète notre avenir

Sans aucun doute, depuis de nombreuses années, les écrivains et les écrivains de science-fiction ont utilisé l'environnement de la science-fiction comme un tremplin pour spéculer sur notre avenir réel, mais la création réelle de l'ISI et les conséquences réelles de cela sont encore au-delà de l'horizon de nos connaissances réelles. De plus, une telle nature artificielle et clairement inhumaine de l'IA ne nous permet même pas de supposer avec précision ce que sera réellement cette IA.

Image
Image

Dans la plupart des œuvres de science-fiction, l'IA est aussi proche que possible des humains.

«Devant nous se trouve en fait tout un éventail des types d'esprit les plus divers. Même si nous ne prenons que la forme humaine. Par exemple, votre esprit est loin d'être identique à celui de votre voisin. Mais cette comparaison n'est qu'une goutte d'eau dans la mer de toute la diversité possible des esprits qui pourraient exister », déclare McIntyre.

La plupart des fictions de science-fiction sont, bien sûr, créées principalement pour raconter une histoire, et non pour être aussi scientifiquement convaincantes que possible. Si c'était l'inverse (la science est plus importante que l'intrigue), alors il ne serait pas intéressant de suivre de tels travaux.

Imaginez à quel point toutes ces histoires seraient ennuyeuses, où l'IA, sans conscience de soi, la capacité de se réjouir, d'aimer ou de haïr, détruit pratiquement tout le monde sans aucune résistance pour atteindre son objectif, ce qui, d'ailleurs, peut également ne pas être très intéressant pour le lecteur ou le spectateur », commente Armstrong.

L'IA prendra nos emplois

La capacité de l'IA à automatiser les processus que nous effectuons manuellement et son potentiel à détruire toute l'humanité ne sont pas la même chose. Cependant, selon Martin Ford, auteur de Rise of the Robots: Technology and the Threat of a Jobless Future, ces concepts sont souvent essayés pour être comparés et combinés en un tout cohérent. Bien sûr, c'est formidable d'essayer d'anticiper les conséquences de la création de l'IA jusqu'à présent, mais seulement si cet effort ne nous distrait pas des problèmes auxquels nous pourrions être confrontés dans quelques décennies si nous ne faisons rien. Et l'un des principaux problèmes de ce type est l'automatisation de masse.

Image
Image

Rares sont ceux qui diront que l'un des défis de l'intelligence artificielle sera de trouver un moyen d'automatiser de nombreux emplois, des emplois d'usine à certains emplois de cols blancs. Certains experts prédisent que la moitié de tous les emplois, du moins aux États-Unis, pourraient être automatisés dans un proche avenir.

Mais cela ne signifie pas du tout que nous ne pourrons pas accepter de tels changements. Il est important de comprendre que le désir de se soulager du stress physique et psychologique inutile au travail est en fait un rêve de notre espèce humaine depuis longtemps.

«Dans quelques décennies, l'IA remplacera en effet des personnes dans de nombreux emplois. Et c'est en fait assez bon. Par exemple, les voitures autonomes remplaceront les camionneurs, ce qui, à son tour, réduira non seulement le coût d'expédition des marchandises, mais aussi le coût des marchandises elles-mêmes. Si vous travaillez comme chauffeur de camion, vous resterez bien sûr l'extrême, mais tout le monde dans ce cas est plus susceptible de recevoir une augmentation de salaire. Et plus cet argent peut être économisé, plus cet argent peut être dépensé pour d'autres biens et services auxquels les gens seront engagés sur leur lieu de travail."

Très probablement, l'intelligence artificielle recherchera de nouvelles façons de bien-être et nourrira les gens pendant qu'ils font autre chose. Les progrès du développement de l'IA seront accompagnés de succès dans d'autres domaines. Surtout dans les secteurs manufacturiers. À l’avenir, tout cela simplifiera sans doute beaucoup plutôt que de compliquer la satisfaction de nos besoins fondamentaux.

Recommandé: