Intelligence Artificielle. Deuxième Partie: Extinction Ou Immortalité? - Vue Alternative

Table des matières:

Intelligence Artificielle. Deuxième Partie: Extinction Ou Immortalité? - Vue Alternative
Intelligence Artificielle. Deuxième Partie: Extinction Ou Immortalité? - Vue Alternative

Vidéo: Intelligence Artificielle. Deuxième Partie: Extinction Ou Immortalité? - Vue Alternative

Vidéo: Intelligence Artificielle. Deuxième Partie: Extinction Ou Immortalité? - Vue Alternative
Vidéo: L'immortalité grâce à l'intelligence artificielle 2024, Septembre
Anonim

Avant de vous est la deuxième partie d'un article de la série "Attendez, comment tout cela peut être réel, pourquoi on n'en parle toujours pas à chaque coin de rue." Dans la série précédente, il est devenu connu qu'une explosion d'intelligence rampait progressivement jusqu'aux habitants de la planète Terre, elle essayait de passer d'une intelligence étroitement focalisée à une intelligence universelle et, enfin, à une superintelligence artificielle.

«Nous sommes peut-être confrontés à un problème extrêmement difficile, et on ne sait pas combien de temps est alloué pour sa solution, mais l’avenir de l’humanité peut dépendre de sa solution.» - Nick Bostrom.

La première partie de l'article a commencé assez innocemment. Nous avons discuté de l'intelligence artificielle étroitement focalisée (IA, qui se spécialise dans la résolution d'un problème spécifique, comme la détermination d'itinéraires ou le jeu d'échecs), dans notre monde, il y en a beaucoup. Ensuite, ils ont analysé pourquoi il est si difficile de développer une intelligence artificielle directionnelle générale (AGI, ou IA, qui, en termes de capacités intellectuelles, peut se comparer à un humain pour résoudre n'importe quel problème), est si difficile. Nous avons conclu que le rythme exponentiel des progrès technologiques laisse entendre que l'AGI pourrait bientôt être proche. En fin de compte, nous avons décidé que dès que les machines atteignaient l'intelligence humaine, les événements suivants pouvaient se produire:

Image
Image
Image
Image
Image
Image
Image
Image

Comme d'habitude, nous regardons l'écran, ne croyant pas qu'une superintelligence artificielle (ISI, qui est beaucoup plus intelligente que n'importe qui) puisse apparaître au cours de notre vie, et en choisissant les émotions qui refléteraient le mieux notre opinion sur cette question.

Vidéo promotionelle:

Avant de plonger dans les spécificités d'ISI, rappelons-nous ce que cela signifie pour une machine d'être superintelligente.

La principale différence réside entre la superintelligence rapide et la superintelligence de qualité. Souvent, la première chose qui vient à l'esprit lorsque l'on pense à un ordinateur superintelligent est qu'il peut penser beaucoup plus vite qu'une personne - des millions de fois plus vite, et en cinq minutes, il comprendra ce que cela prendrait dix ans à une personne. ("Je connais le kung fu!")

Cela semble impressionnant, et l'ISI devrait vraiment penser plus vite que n'importe qui - mais la principale caractéristique de séparation sera la qualité de son intelligence, qui est complètement différente. Les humains sont beaucoup plus intelligents que les singes, non pas parce qu'ils pensent plus vite, mais parce que leur cerveau contient un certain nombre de modules cognitifs ingénieux qui réalisent des représentations linguistiques complexes, une planification à long terme, une pensée abstraite, dont les singes ne sont pas capables. Si vous accélérez mille fois le cerveau d'un singe, il ne deviendra pas plus intelligent que nous - même après dix ans, il ne sera pas en mesure d'assembler un ensemble de construction selon les instructions, ce qui prendrait au maximum quelques heures à une personne. Il y a des choses qu'un singe n'apprendra jamais, peu importe le nombre d'heures qu'il passe ou la vitesse à laquelle son cerveau fonctionne.

De plus, un singe ne sait pas à quel point humainement, parce que son cerveau n'est tout simplement pas capable de réaliser l'existence d'autres mondes - un singe peut savoir ce qu'est une personne et ce qu'est un gratte-ciel, mais ne comprendra jamais qu'un gratte-ciel a été construit par des gens. Dans son monde, tout appartient à la nature, et le macaque non seulement ne peut pas construire un gratte-ciel, mais comprend également que n'importe qui peut le construire. Et c'est le résultat d'une petite différence dans la qualité de l'intelligence.

Dans le schéma général de l'intelligence dont nous parlons, ou simplement selon les normes des êtres biologiques, la différence de qualité de l'intelligence entre les humains et les singes est infime. Dans l'article précédent, nous avons placé les capacités cognitives biologiques sur une échelle:

Image
Image

Pour comprendre à quel point une machine superintelligente sera sérieuse, placez-la deux crans plus haut que la personne sur cette échelle. Cette machine est peut-être juste un peu superintelligente, mais sa supériorité sur nos capacités cognitives sera la même que la nôtre - sur les singes. Et tout comme un chimpanzé ne comprendra jamais qu'un gratte-ciel peut être construit, nous ne comprendrons peut-être jamais ce qu'une machine à quelques pas de plus comprendra, même si la machine essaie de nous l'expliquer. Mais ce n'est que quelques étapes. Une machine plus intelligente verra des fourmis en nous - elle nous apprendra les choses les plus simples de sa position pendant des années, et ces tentatives seront complètement sans espoir.

Le type de superintelligence dont nous parlerons aujourd'hui se situe bien au-delà de cette échelle. C'est une explosion d'intelligence - lorsque plus une voiture devient intelligente, plus vite elle peut augmenter sa propre intelligence, augmentant progressivement son élan. Il faudra peut-être des années à une machine comme celle-ci pour dépasser les chimpanzés en intelligence, mais peut-être quelques heures pour nous surpasser de quelques pas. À partir de ce moment, la voiture peut déjà sauter plus de quatre pas par seconde. C'est pourquoi nous devons comprendre que très peu de temps après l'apparition de la première nouvelle que la machine a atteint le niveau de l'intelligence humaine, nous pouvons faire face à la réalité de la coexistence sur Terre avec quelque chose qui sera beaucoup plus élevé que nous sur cette échelle (ou peut-être, et des millions de fois plus):

Image
Image

Et puisque nous avons établi qu'il est totalement inutile d'essayer de comprendre la puissance d'une machine qui n'est qu'à deux pas de nous, définissons une fois pour toutes qu'il n'y a aucun moyen de comprendre ce que va faire ISI et quelles en seront les conséquences pour nous. Quiconque prétend le contraire ne comprend tout simplement pas ce que signifie la superintelligence.

L'évolution a lentement et progressivement fait évoluer le cerveau biologique sur des centaines de millions d'années, et si les humains créent une machine superintelligente, en un sens, nous transcenderons l'évolution. Ou cela fera partie de l'évolution - peut-être que l'évolution fonctionne de telle manière que l'intelligence se développe progressivement jusqu'à ce qu'elle atteigne un tournant qui annonce un nouvel avenir pour tous les êtres vivants:

Image
Image

Pour des raisons dont nous discuterons plus tard, une grande partie de la communauté scientifique estime que la question n'est pas de savoir si nous arriverons à ce point de basculement, mais quand.

Où finissons-nous après cela?

Je pense que personne dans ce monde, ni moi ni vous, ne pourra dire ce qui se passera lorsque nous atteindrons le point de basculement. Le philosophe d'Oxford et grand théoricien de l'IA Nick Bostrom pense que nous pouvons regrouper tous les résultats possibles en deux grandes catégories.

Tout d'abord, en regardant l'histoire, nous savons ce qui suit sur la vie: les espèces apparaissent, existent pendant un certain temps, puis tombent inévitablement de l'équilibre de la vie et meurent.

Image
Image

«Toutes les espèces meurent» a été une règle aussi fiable dans l'histoire que «tout le monde meurt un jour». 99,9% des espèces sont tombées d'une bûche de vie, et il est clair que si une espèce reste trop longtemps sur cette bûche, une rafale de vent naturel ou un astéroïde soudain renversera la bûche. Bostrom appelle l'extinction l'état d'un attracteur - un endroit où toutes les espèces s'équilibrent pour ne pas tomber là où aucune espèce n'est revenue.

Et bien que la plupart des scientifiques admettent que l'ISI aura la capacité de condamner les gens à l'extinction, beaucoup pensent également que l'utilisation des capacités de l'ISI permettra aux individus (et à l'espèce dans son ensemble) d'atteindre le deuxième état de l'attracteur - l'immortalité de l'espèce. Bostrom croit que l'immortalité d'une espèce est autant un attracteur que l'extinction d'une espèce, c'est-à-dire que si nous y arrivons, nous serons condamnés à l'existence éternelle. Ainsi, même si toutes les espèces jusqu'à ce jour sont tombées de ce bâton dans le maelström de l'extinction, Bostrom estime que la bûche a deux côtés, et il n'y a tout simplement pas apparu sur Terre une telle intelligence qui comprendrait comment tomber de l'autre côté.

Image
Image

Si Bostrom et d'autres ont raison, et à en juger par toutes les informations dont nous disposons, ils pourraient bien l'être, nous devons accepter deux faits très choquants:

1. L'émergence de l'ISI pour la première fois dans l'histoire ouvrira la possibilité à une espèce d'atteindre l'immortalité et de sortir du cycle fatal de l'extinction.

2. L'émergence de l'ISI aura un impact tellement inimaginable que, très probablement, elle poussera l'humanité hors de ce faisceau dans un sens ou dans l'autre.

Il est possible que lorsque l'évolution atteint un tel tournant, elle mette toujours fin à la relation des gens avec le courant de la vie et crée un nouveau monde, avec ou sans les gens.

Cela soulève une question intéressante que seul un décevant ne poserait pas: quand arriverons-nous à ce point de basculement et où cela nous mènera-t-il? Personne au monde ne connaît la réponse à cette double question, mais de nombreuses personnes intelligentes ont essayé de la comprendre pendant des décennies. Pour le reste de l'article, nous verrons d'où ils viennent.

* * *

Commençons par la première partie de cette question: quand devrions-nous atteindre le point de basculement? En d'autres termes: combien de temps reste-t-il avant que la première machine atteigne la superintelligence?

Les opinions varient d'un cas à l'autre. Beaucoup, y compris le professeur Vernor Vinge, le scientifique Ben Herzel, le co-fondateur de Sun Microsystems Bill Joy, le futuriste Ray Kurzweil, étaient d'accord avec l'expert en apprentissage automatique Jeremy Howard lorsqu'il a présenté le graphique suivant à TED Talk:

Image
Image

Ces personnes partagent l'idée que l'ISI arrive bientôt - cette croissance exponentielle, qui nous semble lente aujourd'hui, va littéralement exploser dans les prochaines décennies.

D'autres, comme le co-fondateur de Microsoft Paul Allen, le psychologue de recherche Gary Marcus, l'expert en informatique Ernest Davis et l'entrepreneur technologique Mitch Kapor, pensent que des penseurs comme Kurzweil sous-estiment sérieusement l'ampleur du problème et pensent que nous ne sommes pas aussi près du point de basculement.

Le camp de Kurzweil soutient que la seule sous-estimation qui se produit est d'ignorer la croissance exponentielle, et les sceptiques peuvent être comparés à ceux qui ont regardé Internet en plein essor lent en 1985 et ont fait valoir qu'il n'aurait pas d'impact sur le monde dans un avenir proche.

Les sceptiques peuvent repousser le fait qu'il est plus difficile pour le progrès de franchir chaque étape ultérieure en ce qui concerne le développement exponentiel de l'intelligence, qui neutralise la nature exponentielle typique du progrès technologique. Etc.

Le troisième camp, dans lequel se trouve Nick Bostrom, n'est pas d'accord avec le premier ou le second, arguant que a) tout cela peut absolument se produire dans un proche avenir; et b) il n'y a aucune garantie que cela se produira du tout ou que cela prendra plus de temps.

D'autres, comme le philosophe Hubert Dreyfus, pensent que les trois groupes croient naïvement qu'il y aura un point de basculement du tout, et que nous n'atteindrons probablement jamais l'ISI.

Que se passe-t-il lorsque nous rassemblons toutes ces opinions?

En 2013, Bostrom a mené une enquête dans laquelle il a interviewé des centaines d'experts dans le domaine de l'intelligence artificielle lors d'une série de conférences sur le thème suivant: "Quelles seront vos prédictions pour atteindre l'AGI au niveau humain?" et nous a demandé de nommer une année optimiste (dans laquelle nous aurons AGI avec une chance de 10 pour cent), une hypothèse réaliste (une année dans laquelle nous aurons une AGI avec une probabilité de 50 pour cent) et une hypothèse confiante (la première année dans laquelle l'AGI apparaîtra depuis 90 -pourcentage de probabilité). Voici les résultats:

- Année optimiste moyenne (10%): 2022

- Année réaliste moyenne (50%): 2040

- Année pessimiste moyenne (90%): 2075

Les répondants moyens pensent que dans 25 ans, nous aurons l'AGI plutôt que pas. Les 90 pour cent de chances que l'AGI se produise d'ici 2075 signifie que si vous êtes encore assez jeune maintenant, cela se produira probablement dans votre vie.

Une étude distincte récemment menée par James Barratt (l'auteur du très bon livre Our Latest Invention, extrait dont j'ai porté à l'attention des lecteurs de Hi-News.ru) et Ben Herzel à la Conférence AGI, la conférence annuelle AGI, a simplement montré l'opinion des gens par rapport à l'année où nous arrivons à l'AGI: 2030, 2050, 2100, plus tard ou jamais. Voici les résultats:

- D'ici 2030: 42% des répondants

- D'ici 2050: 25%

- D'ici 2100: 20%

- Après 2100: 10%

- Jamais: 2%

Similaire aux résultats de Bostrom. Dans le sondage de Barratt, plus des deux tiers des personnes interrogées pensent qu'AGI sera ici d'ici 2050, et moins de la moitié pensent qu'AGI apparaîtra dans les 15 prochaines années. Il est également frappant de constater que seulement 2% des répondants, en principe, ne voient pas AGI dans notre avenir.

Mais AGI n'est pas un point de basculement comme ISI. Quand, selon les experts, aurons-nous l'ISI?

Bostrom a demandé aux experts quand nous atteindrons ASI: a) deux ans après avoir atteint AGI (c'est-à-dire presque instantanément en raison d'une explosion d'intelligence); b) après 30 ans. Résultats?

L'opinion moyenne est que la transition rapide de l'AGI à l'ISI se produira avec une probabilité de 10%, mais dans 30 ans ou moins, elle se produira avec une probabilité de 75%.

À partir de ces données, nous ne savons pas à quelle date les répondants appelleraient une probabilité de 50 pour cent d'un ASI, mais sur la base des deux réponses ci-dessus, supposons qu'il est de 20 ans. Autrement dit, les plus grands experts mondiaux de l'IA pensent que le tournant viendra en 2060 (AGI apparaîtra en 2040 +, il faudra 20 ans pour la transition d'AGI à ISI).

Image
Image

Bien sûr, toutes les statistiques ci-dessus sont spéculatives et ne représentent que l'opinion d'experts dans le domaine de l'intelligence artificielle, mais elles indiquent également que la plupart des personnes concernées conviennent que d'ici 2060, l'IA est susceptible d'arriver. En 45 ans seulement.

Passons à la deuxième question. Quand nous arriverons au point de basculement, quel côté du choix fatal nous déterminera?

La superintelligence aura le pouvoir le plus puissant, et la question cruciale pour nous sera la suivante:

Qui ou quoi contrôlera ce pouvoir et quelle sera leur motivation?

La réponse à cette question dépendra de savoir si l'ISI obtient un développement incroyablement puissant, un développement incroyablement terrifiant, ou quelque chose entre les deux.

Bien entendu, la communauté d'experts essaie également de répondre à ces questions. Le sondage de Bostrom a analysé la probabilité des conséquences possibles de l'impact de l'AGI sur l'humanité, et il s'est avéré qu'avec 52 pour cent de chances que tout se passe très bien et avec 31 pour cent de chances que tout se passe mal ou extrêmement mal. Le sondage joint à la fin de la partie précédente de ce sujet, réalisé parmi vous, chers lecteurs de Hi-News, a montré à peu près les mêmes résultats. Pour un résultat relativement neutre, la probabilité n'était que de 17%. En d'autres termes, nous croyons tous que l'AGI va être un gros problème. Il convient également de noter que cette enquête concerne l'émergence de l'AGI - dans le cas de l'ISI, le pourcentage de neutralité sera plus faible.

Avant d'approfondir notre réflexion sur les bons et les mauvais côtés de la question, combinons les deux côtés de la question - "quand cela se produira-t-il?" et "est-ce bon ou mauvais?" dans un tableau qui couvre les opinions de la plupart des experts.

Image
Image

Nous parlerons du camp principal dans une minute, mais d'abord, décidez de votre position. Très probablement, vous êtes au même endroit où j'étais avant de commencer à travailler sur ce sujet. Il y a plusieurs raisons pour lesquelles les gens ne pensent pas du tout à ce sujet:

- Comme mentionné dans la première partie, les films ont sérieusement confondu les gens et les faits, présentant des scénarios irréalistes avec l'intelligence artificielle, ce qui a conduit au fait que nous ne devrions pas du tout prendre l'IA au sérieux. James Barratt a comparé cette situation à celle émise par les Centers for Disease Control (CDC) avec un avertissement sérieux sur les vampires dans notre avenir.

- En raison des soi-disant biais cognitifs, il nous est très difficile de croire que quelque chose est réel tant que nous n'en avons pas la preuve. On peut imaginer avec confiance les informaticiens de 1988 discutant régulièrement des conséquences profondes d'Internet et de ce qu'il pourrait devenir, mais les gens ne croyaient guère que cela changerait leur vie jusqu'à ce que cela se produise. C'est juste que les ordinateurs ne savaient pas comment faire cela en 1988, et les gens ont juste regardé leurs ordinateurs et se sont dit: «Vraiment? Est-ce cela qui va changer le monde? Leur imagination était limitée par ce que leur expérience personnelle leur apprenait, ils savaient ce qu'était un ordinateur et il était difficile d'imaginer de quoi un ordinateur serait capable dans le futur. La même chose se passe maintenant avec l'IA. Nous avons entendu dire que cela deviendrait une chose sérieuseMais comme nous ne l'avons pas encore rencontrée en face à face et, en général, nous observons des manifestations plutôt faibles de l'IA dans notre monde moderne, il nous est plutôt difficile de croire qu'elle changera radicalement notre vie. C'est contre ces préjugés que de nombreux experts de tous les camps, ainsi que des personnes intéressées, s'opposent pour tenter de capter notre attention à travers le bruit de l'égocentrisme collectif quotidien.

- Même si nous croyions en tout cela - combien de fois aujourd'hui avez-vous pensé au fait que vous passerez le reste de l'éternité dans le néant? Un peu d'accord. Même si ce fait est bien plus important que tout ce que vous faites jour après jour. C'est parce que notre cerveau est généralement concentré sur de petites choses de tous les jours, aussi délirante que soit la situation à long terme dans laquelle nous nous trouvons. C'est juste que nous sommes faits.

L'un des objectifs de cet article est de vous faire sortir du camp appelé «j'aime penser à autre chose» et de vous mettre dans le camp des experts, même si vous êtes juste au carrefour entre les deux lignes pointillées dans le carré ci-dessus, complètement indécis.

Au cours de la recherche, il devient évident que les opinions de la plupart des gens dérivent rapidement vers le «camp principal» et les trois quarts des experts se répartissent dans deux sous-camps du camp principal.

Image
Image

Nous visiterons ces deux camps en entier. Commençons par le plaisir.

Pourquoi l'avenir pourrait-il être notre plus grand rêve?

Alors que nous explorons le monde de l'IA, nous trouvons étonnamment de nombreuses personnes dans notre zone de confort. Les gens de la place en haut à droite bourdonnent d'excitation. Ils croient que nous tomberons du bon côté du journal, et ils croient également que nous y arriverons inévitablement. Pour eux, l’avenir n’est que le meilleur dont on puisse rêver.

Le point qui distingue ces gens des autres penseurs n'est pas qu'ils veulent être du bon côté - mais qu'ils sont sûrs qu'elle nous attend.

Cette confiance est issue de la controverse. Les critiques pensent que cela vient d'une excitation fulgurante qui éclipse les côtés négatifs potentiels. Mais les partisans disent que les sombres prédictions sont toujours naïves; la technologie continue et nous aidera toujours plus que nous nuire.

Vous êtes libre de choisir l'une de ces opinions, mais mettez de côté le scepticisme et examinez bien le côté heureux de la poutre d'équilibre, en essayant d'accepter le fait que tout ce que vous lisez peut déjà être arrivé. Si vous montriez aux chasseurs-cueilleurs notre monde de confort, de technologie et d'abondance sans fin, cela leur semblerait une fiction magique - et nous nous comportons assez modestement, incapables d'admettre que la même transformation incompréhensible nous attend dans le futur.

Nick Bostrom décrit trois chemins qu'un système d'IA superintelligent peut emprunter:

Un oracle qui peut répondre à n'importe quelle question exacte, y compris des questions complexes auxquelles les humains ne peuvent pas répondre - par exemple, "comment rendre un moteur de voiture plus efficace?" Google est un type primitif d '"oracle".

Un génie qui exécutera n'importe quelle commande de haut niveau - en utilisant un assembleur moléculaire pour créer une nouvelle version plus efficace d'un moteur automobile - et attendra la commande suivante.

Un souverain qui aura un large accès et la capacité de fonctionner librement dans le monde, de prendre ses propres décisions et d'améliorer le processus. Il inventera un moyen de transport privé moins cher, plus rapide et plus sûr qu'une voiture.

Ces questions et tâches, qui nous semblent difficiles, sembleront au système superintelligent comme si on demandait à quelqu'un d'améliorer la situation «mon crayon est tombé de la table», dans laquelle il vous suffirait de le ramasser et de le remettre.

Eliezer Yudkowski, un expert américain en intelligence artificielle, l'a bien dit:

«Il n'y a pas de problèmes difficiles, seulement des problèmes difficiles pour un certain niveau d'intelligence. Allez un cran plus haut (en termes d'intelligence), et certains problèmes vont soudainement passer de la catégorie «impossible» au camp des «évidents». Un pas plus haut - et ils deviendront tous évidents."

De nombreux scientifiques, inventeurs et entrepreneurs impatients ont choisi une zone de confort confiant sur notre table, mais nous n'avons besoin que d'un seul guide pour marcher pour le mieux dans ce meilleur des mondes.

Ray Kurzweil est ambigu. Certains idolâtrent ses idées, certains méprisent. Certains restent au milieu - Douglas Hofstadter, discutant des idées des livres de Kurzweil, a noté avec éloquence que "c'est comme si vous aviez pris beaucoup de bonne nourriture et un petit caca de chien, puis tout mélangé de telle manière qu'il est impossible de comprendre ce qui est bon et ce qui est mauvais."

Que vous aimiez ses idées ou non, vous ne pouvez pas les passer sans l'ombre d'un intérêt. Il a commencé à inventer des choses à l'adolescence et, les années suivantes, il a inventé plusieurs choses importantes, notamment le premier scanner à plat, le premier scanner à convertir le texte en parole, le célèbre synthétiseur musical Kurzweil (le premier vrai piano électrique) et le premier logiciel de reconnaissance vocale à succès commercial. Il est également l'auteur de cinq livres sensationnels. Kurzweil est apprécié pour ses prédictions audacieuses, et son bilan est assez bon - à la fin des années 80, alors qu'Internet en était encore à ses balbutiements, il avait prédit que dans les années 2000, le Web deviendrait un phénomène mondial. Le Wall Street Journal a qualifié Kurzweil de «génie agité», Forbes de «machine à penser mondiale», Inc. Magazine - "l'héritier légitime d'Edison", Bill Gates - "le meilleur de ceuxqui prédit l'avenir de l'intelligence artificielle. " En 2012, le cofondateur de Google, Larry Page, a invité Kurzweil au poste de CTO. En 2011, il a cofondé la Singularity University, hébergée par la NASA et en partie sponsorisée par Google.

Sa biographie compte. Quand Kurzweil parle de sa vision du futur, cela semble fou, mais ce qui est vraiment fou, c'est qu'il est loin d'être fou - c'est une personne incroyablement intelligente, éduquée et saine d'esprit. Vous pensez peut-être qu'il a tort dans ses prédictions, mais ce n'est pas un imbécile. Les prédictions de Kurzweil sont partagées par de nombreux experts des zones de confort, Peter Diamandis et Ben Herzel. C'est ce qu'il pense arriver.

Chronologie

Kurzweil pense que les ordinateurs atteindront le niveau de l'intelligence artificielle générale (AGI) d'ici 2029, et d'ici 2045, nous aurons non seulement une superintelligence artificielle, mais aussi un monde complètement nouveau - le temps de la soi-disant singularité. Sa chronologie de l'IA est toujours considérée comme outrageusement exagérée, mais au cours des 15 dernières années, le développement rapide de systèmes d'intelligence artificielle (IA) hautement ciblés a contraint de nombreux experts à se rallier à Kurzweil. Ses prédictions restent encore plus ambitieuses que l'enquête de Bostrom (AGI d'ici 2040, ISI d'ici 2060), mais pas de beaucoup.

Selon Kurzweil, trois révolutions simultanées dans les domaines de la biotechnologie, de la nanotechnologie et, plus important encore, de l'IA sont à l'origine de la singularité de 2045. Mais avant d'aller plus loin - et la nanotechnologie suit de près l'intelligence artificielle - prenons une minute pour la nanotechnologie.

Image
Image

Quelques mots sur les nanotechnologies

Nous appelons généralement des technologies de nanotechnologie qui traitent de la manipulation de la matière dans la plage de 1 à 100 nanomètres. Un nanomètre est un milliardième de mètre, ou un millionième de millimètre; dans la plage de 1 à 100 nanomètres, des virus (100 nm de diamètre), de l'ADN (10 nm de largeur), des molécules d'hémoglobine (5 nm), du glucose (1 nm) et plus peuvent être hébergés. Si la nanotechnologie devient un jour notre sujet, la prochaine étape sera de manipuler des atomes individuels qui sont inférieurs à un ordre de grandeur (~, 1 nm).

Pour comprendre où les humains rencontrent des problèmes en essayant de manipuler la matière à une telle échelle, passons à une plus grande échelle. La Station spatiale internationale est à 481 kilomètres au-dessus de la Terre. Si les humains étaient des géants et frappaient l'ISS avec leur tête, ils seraient 250 000 fois plus gros qu'ils ne le sont maintenant. Si vous agrandissez quelque chose de 1 à 100 nanomètres 250 000 fois, vous obtenez 2,5 centimètres. La nanotechnologie est l'équivalent d'un humain, en orbite autour de l'ISS, essayant de manipuler des objets de la taille d'un grain de sable ou d'un globe oculaire. Pour passer au niveau suivant - contrôler les atomes individuels - le géant devra positionner soigneusement des objets d'un diamètre de 1/40 de millimètre. Les gens ordinaires auront besoin d'un microscope pour les voir.

Pour la première fois, Richard Feynman a parlé de la nanotechnologie en 1959. Puis il a dit: «Les principes de la physique, pour autant que je sache, ne parlent pas contre la possibilité de contrôler les choses atome par atome. En principe, un physicien pourrait synthétiser n'importe quel produit chimique qu'un chimiste a écrit. Comment? En plaçant les atomes là où le chimiste dit de récupérer la substance. C'est toute la simplicité. Si vous savez comment déplacer des molécules ou des atomes individuels, vous pouvez presque tout faire.

La nanotechnologie est devenue un domaine scientifique sérieux en 1986 lorsque l'ingénieur Eric Drexler a présenté ses fondations dans son livre fondateur Machines of Creation, mais Drexler lui-même pense que ceux qui veulent en savoir plus sur les idées modernes en nanotechnologie devraient lire son livre de 2013. Abondance totale (Abondance radicale).

Une fois que nous allons au fond de la nanotechnologie, nous pouvons l'utiliser pour créer des appareils techniques, des vêtements, de la nourriture, des bioproduits - des cellules sanguines, des virus et des combattants du cancer, des tissus musculaires, etc. Et dans un monde qui utilise les nanotechnologies, le coût d'un matériau ne sera plus lié à sa rareté ou à la complexité de son processus de fabrication, mais plutôt à la complexité de sa structure atomique. Dans le monde de la nanotechnologie, un diamant pourrait être moins cher qu'une gomme.

Nous n'en sommes même pas encore proches. Et il n'est pas tout à fait clair si nous sous-estimons ou surestimons la complexité de ce chemin. Cependant, tout va au point que la nanotechnologie n'est pas loin. Kurzweil suppose que d'ici les années 2020, nous les aurons. Les États du monde savent que les nanotechnologies peuvent promettre un bel avenir et ils y investissent donc plusieurs milliards.

Imaginez les possibilités qu'aurait un ordinateur superintelligent s'il avait accès à un assembleur nanométrique fiable. Mais la nanotechnologie est notre idée, et nous essayons de la maîtriser, c'est difficile pour nous. Et s'ils ne sont qu'une blague pour le système ISI, et que l'ISI lui-même proposera des technologies qui seront plusieurs fois plus puissantes que tout ce que nous pouvons en principe supposer? Nous étions d'accord: personne ne peut imaginer de quoi la superintelligence artificielle sera capable? On pense que notre cerveau est incapable de prédire même le minimum de ce qui va se passer.

Que pourrait faire l'IA pour nous?

Armé de la superintelligence et de toute la technologie que la superintelligence pourrait créer, ISI sera probablement en mesure de résoudre tous les problèmes de l'humanité. Réchauffement climatique? ISI arrêtera d'abord les émissions de carbone en proposant une multitude de méthodes efficaces de production d'énergie non fossile. Il trouvera ensuite un moyen efficace et innovant d'éliminer l'excès de CO2 de l'atmosphère. Cancer et autres maladies? Pas de problème - les soins de santé et la médecine changeront d'une manière impossible à imaginer. La faim dans le monde? ISI utilisera la nanotechnologie pour créer de la viande identique à de la vraie viande naturelle.

Image
Image

La nanotechnologie sera en mesure de transformer un tas de déchets en une cuve de viande fraîche ou d'autres aliments (pas nécessairement même sous la forme habituelle - imaginez un cube de pomme géant) et de distribuer toute cette nourriture à travers le monde en utilisant des systèmes de transport avancés. Bien sûr, ce sera formidable pour les animaux qui n'ont plus à mourir pour se nourrir. L'ISI peut également faire beaucoup d'autres choses, comme préserver les espèces en voie de disparition ou même en ramener celles éteintes à partir d'ADN préservé. ISI peut résoudre nos problèmes macroéconomiques les plus difficiles - nos débats économiques les plus difficiles, les questions éthiques et philosophiques, le commerce mondial - qui seront douloureusement évidents pour ISI.

Mais il y a quelque chose de très spécial que l'ISI pourrait faire pour nous. Séduisante et alléchante qui changerait tout: ISI peut nous aider à faire face à la mortalité. Comprenant progressivement les capacités de l'IA, vous reconsidérerez peut-être toutes vos idées sur la mort.

Il n'y avait aucune raison pour que l'évolution prolonge notre durée de vie plus longtemps qu'elle ne le fait maintenant. Si nous vivons assez longtemps pour donner naissance et élever des enfants au point où ils peuvent se débrouiller seuls, l’évolution suffit. D'un point de vue évolutif, plus de 30 ans suffisent au développement, et il n'y a aucune raison pour que les mutations prolongent la vie et réduisent la valeur de la sélection naturelle. William Butler Yates a appelé notre espèce «une âme attachée à un animal mourant». Pas très amusant.

Et puisque nous mourons tous un jour, nous vivons avec l'idée que la mort est inévitable. Nous pensons au vieillissement au fil du temps - continuer à avancer et ne pas pouvoir arrêter ce processus. Mais la pensée de la mort est perfide: capturés par elle, on oublie de vivre. Richard Feynman a écrit:

«Il y a une chose merveilleuse en biologie: il n'y a rien dans cette science qui parlerait de la nécessité de la mort. Si nous voulons créer une machine à mouvement perpétuel, nous nous rendons compte que nous avons trouvé suffisamment de lois en physique qui indiquent soit l'impossibilité de ceci, soit que les lois sont fausses. Mais il n'y a rien en biologie qui indiquerait l'inévitabilité de la mort. Cela me porte à croire que ce n'est pas si inévitable, et ce n'est qu'une question de temps avant que les biologistes découvrent la cause de ce problème, cette terrible maladie universelle, elle sera guérie."

Le fait est que le vieillissement n'a rien à voir avec le temps. Le vieillissement se produit lorsque les matériaux physiques du corps s'usent. Les pièces automobiles se dégradent également - mais le vieillissement est-il inévitable? Si vous continuez à réparer votre voiture au fur et à mesure que les pièces s'usent, cela durera pour toujours. Le corps humain n'est pas différent - juste plus complexe.

Kurzweil parle de nanobots intelligents connectés au Wi-Fi dans la circulation sanguine qui pourraient effectuer d'innombrables tâches pour la santé humaine, y compris la réparation ou le remplacement régulier de cellules usées partout dans le corps. Améliorer ce processus (ou trouver une alternative suggérée par un ASI plus intelligent) maintient non seulement le corps en bonne santé, mais peut inverser le vieillissement. La différence entre le corps d'un 60 ans et d'un 30 ans est une poignée de problèmes physiques qui pourraient être corrigés avec la bonne technologie. ISI pourrait construire une voiture dans laquelle une personne entrerait à 60 ans et en repartirait à 30 ans.

Même un cerveau dégradé pourrait être renouvelé. L'ISI saurait sûrement faire cela sans affecter les données cérébrales (personnalité, souvenirs, etc.). Un homme de 90 ans souffrant d'une dégradation complète du cerveau pourrait subir une reconversion, se renouveler et retourner au début de sa vie. Cela peut sembler absurde, mais le corps est une poignée d'atomes, et l'ISI pourrait certainement les manipuler facilement, toutes les structures atomiques. Ce n’est pas si absurde.

Kurzweil pense également que les matériaux artificiels s'intégreront de plus en plus dans le corps avec le temps. Pour commencer, les organes pourraient être remplacés par des versions de machines ultra-avancées qui dureraient éternellement et ne tomberaient jamais en panne. Ensuite, nous pourrions faire une refonte complète du corps, en remplaçant les globules rouges par des nanobots parfaits qui bougent d'eux-mêmes, éliminant ainsi le besoin d'un cœur. Nous pourrions également améliorer nos capacités cognitives, commencer à penser des milliards de fois plus vite et accéder à toutes les informations disponibles pour l'humanité via le cloud.

Les possibilités d'appréhender de nouveaux horizons seraient vraiment infinies. Les gens ont réussi à doter le sexe d'un nouveau but, ils le font pour le plaisir, pas seulement pour la reproduction. Kurzweil pense que nous pouvons faire la même chose avec la nourriture. Les nanobots pourraient fournir une nutrition idéale directement aux cellules du corps, permettant aux substances malsaines de passer à travers le corps. Le théoricien des nanotechnologies Robert Freitas a déjà développé un substitut des cellules sanguines qui, lorsqu'il est implémenté dans le corps humain, peut lui permettre de ne pas respirer pendant 15 minutes - et cela a été inventé par une personne. Imaginez quand l'ISI gagnera du pouvoir.

Après tout, Kurzweil pense que les humains atteindront le point où ils deviendront complètement artificiels; le moment où nous regardons les matériaux biologiques et pensons à quel point ils étaient primitifs; moment où nous lirons les premières étapes de l'histoire humaine, étonnés de la façon dont les germes, les accidents, les maladies ou simplement la vieillesse pourraient tuer une personne contre sa volonté. En fin de compte, les humains vaincront leur propre biologie et deviendront éternels - c'est le chemin vers le côté heureux de la poutre d'équilibre dont nous parlons depuis le tout début. Et les gens qui y croient sont également convaincus qu'un tel avenir nous attend très, très bientôt.

Vous ne serez probablement pas surpris que les idées de Kurzweil aient suscité de vives critiques. Sa singularité en 2045 et la vie éternelle subséquente pour les gens ont été appelées «l'ascension des nerds» ou «création intelligente de personnes avec un QI de 140». D'autres ont remis en question le calendrier optimiste, la compréhension du corps et du cerveau humains, rappelé la loi de Moore, qui n'a pas encore disparu. Pour chaque expert qui croit aux idées de Kurzweil, il y en a trois qui pensent qu'il a tort.

Mais le plus intéressant à ce sujet est que la plupart des experts qui ne sont pas d'accord avec lui ne disent généralement pas que c'est impossible. Au lieu de dire "des conneries, cela n'arrivera jamais", ils disent quelque chose comme "tout cela arrivera si nous arrivons à l'ISI, mais c'est le piège". Bostrom, l'un des experts en IA acclamés mettant en garde contre le danger de l'IA, admet également:

«Il ne reste pratiquement plus de problème que la superintelligence ne puisse pas résoudre ou même nous aider à résoudre. Maladie, pauvreté, destruction de l'environnement, souffrances de toutes sortes - toute cette superintelligence à l'aide de la nanotechnologie peut résoudre en un instant. La superintelligence peut également nous donner une durée de vie illimitée en arrêtant et en inversant le processus de vieillissement à l'aide de la nanomédecine ou de la possibilité de nous télécharger sur le cloud. La superintelligence peut également créer des opportunités pour des augmentations sans fin des capacités intellectuelles et émotionnelles; il peut nous aider à créer un monde dans lequel nous vivrons dans la joie et la compréhension, en nous rapprochant de nos idéaux et en réalisant régulièrement nos rêves."

Ceci est une citation de l'un des critiques de Kurzweil, cependant, qui admet que tout cela est possible si nous pouvons créer un ASI sécurisé. Kurzweil a simplement défini ce que la superintelligence artificielle devrait devenir, si possible. Et s'il est un bon dieu.

La critique la plus évidente des défenseurs de la zone de confort est qu'ils peuvent se tromper dans l'évaluation de l'avenir de l'ISI. Dans son livre The Singularity, Kurzweil a consacré 20 pages sur 700 menaces potentielles d'ISI. La question n'est pas de savoir quand nous arriverons à l'ISI, la question est de savoir quelle sera sa motivation. Kurzweil répond à cette question avec prudence: «ISI découle de nombreux efforts disparates et sera profondément intégré dans l'infrastructure de notre civilisation. En fait, il sera étroitement intégré à notre corps et à notre cerveau. Il reflétera nos valeurs car il sera un avec nous."

Mais si la réponse est, pourquoi tant de personnes intelligentes dans ce monde s'inquiètent-elles de l'avenir de l'intelligence artificielle? Pourquoi Stephen Hawking dit-il que le développement de l'ISI "pourrait signifier la fin de la race humaine"? Bill Gates dit qu'il "ne comprend pas les gens qui ne sont pas dérangés" à ce sujet. Elon Musk craint que nous «invoquions un démon». Pourquoi de nombreux experts considèrent-ils l'ISI comme la plus grande menace pour l'humanité?

Basé sur des matériaux de waitbutwhy.com, compilation de Tim Urban. L'article utilise des matériaux issus des œuvres de Nick Bostrom, James Barratt, Ray Kurzweil, Jay Niels-Nilsson, Stephen Pinker, Vernor Vinge, Moshe Vardy, Russ Roberts, Stuart Armstrog et Kai Sotal, Susan Schneider, Stuart Russell et Peter Norvig, Theodore Modis Marcus, Karl Schulman, John Searle, Jaron Lanier, Bill Joy, Kevin Keley, Paul Allen, Stephen Hawking, Kurt Andersen, Mitch Kapor, Ben Herzel, Arthur Clark, Hubert Dreyfus, Ted Greenwald, Jeremy Howard.

Auteur: Ilya Khel

Troisième partie: pourquoi est-ce notre dernière invention?