Les Cinq Menaces Les Plus Graves à L'existence De L'humanité - Vue Alternative

Table des matières:

Les Cinq Menaces Les Plus Graves à L'existence De L'humanité - Vue Alternative
Les Cinq Menaces Les Plus Graves à L'existence De L'humanité - Vue Alternative

Vidéo: Les Cinq Menaces Les Plus Graves à L'existence De L'humanité - Vue Alternative

Vidéo: Les Cinq Menaces Les Plus Graves à L'existence De L'humanité - Vue Alternative
Vidéo: L'effondrement de notre civilisation industrielle 2024, Mai
Anonim

Emportés par le battage médiatique sur les «crises» actuelles auxquelles l'humanité est confrontée, nous oublions le grand nombre de générations qui, nous l'espérons, viendront nous remplacer. Nous ne parlons pas de ces gens qui vivront 200 ans après nous, mais de ceux qui vivront mille ou 10 mille ans après nous.

J'utilise le mot «espoir» parce que nous sommes confrontés à des risques que l'on appelle existentiels et qui peuvent détruire l'humanité. Ces risques sont associés non seulement à des catastrophes majeures, mais aussi à des catastrophes qui peuvent mettre fin à l’histoire.

Cependant, tout le monde n'ignore pas le futur lointain. Des mystiques comme Nostradamus essaient régulièrement de déterminer une date pour la fin du monde. H. G. Wells a tenté de développer une science de la prédiction et est connu pour avoir décrit l'avenir de l'humanité dans The Time Machine. D'autres écrivains ont proposé d'autres versions d'un futur lointain pour avertir, divertir ou imaginer.

Mais même si tous ces pionniers et futuristes ne pensaient pas à l'avenir de l'humanité, le résultat resterait toujours le même. Il n'y avait pas grand-chose que l'homme aurait pu faire auparavant pour nous sauver d'une crise existentielle, ou même pour la provoquer.

Aujourd'hui, nous sommes dans une position plus privilégiée. L'activité humaine façonne progressivement l'avenir de notre planète. Bien que nous soyons encore loin de maîtriser les catastrophes, nous développons déjà des technologies qui peuvent atténuer leurs conséquences, ou du moins faire quelque chose d'ailleurs.

L'avenir est imparfait

Cependant, ces risques ne sont toujours pas bien compris. Il y a impuissance et fatalisme face aux problèmes énumérés. Les gens parlent d'apocalypses depuis des millénaires, mais peu ont essayé de les empêcher. De plus, les êtres humains ne sont pas si forts en termes de problèmes qui ne sont pas encore apparus (en particulier en raison de l'impact de l'heuristique de disponibilité) - la tendance à surestimer la probabilité de ces événements, dont nous sommes familiers, et à sous-estimer les événements que nous on ne s'en souvient pas tout de suite).

Vidéo promotionelle:

Si l'humanité cesse d'exister, alors ce type de perte sera au moins équivalent à la perte de tous les individus vivants, ainsi qu'à l'effondrement de tous leurs objectifs. Cependant, en réalité, la perte sera probablement beaucoup plus importante. La disparition d'une personne signifie la perte du sens créé par les générations précédentes, la perte de la vie de toutes les générations futures (et le nombre de vies futures peut être astronomique), ainsi que toutes ces valeurs qu'elles pourraient probablement créer.

Si la conscience et la raison n'existent plus, cela peut signifier que la valeur elle-même cesse d'exister dans l'univers. C'est une raison morale très forte de travailler sans relâche pour prévenir les menaces existentielles. Et sur cette voie, nous ne devons pas faire une seule erreur.

Image
Image

Cela dit, j'ai sélectionné les cinq menaces les plus graves pour l'existence humaine. Cependant, certaines circonstances supplémentaires doivent être prises en compte, car cette liste n'est pas encore définitive.

Au cours des derniers siècles, nous avons découvert ou créé de nouveaux risques existentiels pour nous-mêmes: au début des années 1970, des supervolcans ont été découverts, et avant le projet de Manhattan, la guerre nucléaire était impossible. Par conséquent, nous devons nous attendre à ce que d'autres menaces apparaissent. De plus, certains des risques qui semblent sérieux aujourd'hui peuvent disparaître à mesure que les connaissances s'accumulent. La probabilité de certains événements change également avec le temps. Parfois, cela se produit parce que nous sommes préoccupés par les risques existants et que nous nous attaquons à leurs causes.

Enfin, le fait que quelque chose soit possible et potentiellement risqué ne signifie pas qu'il vaut la peine de s'inquiéter. Il y a des risques avec lesquels nous ne pouvons rien faire du tout - par exemple, les flux de rayons gamma résultant de l'explosion des galaxies. Mais si nous découvrons que nous sommes capables de faire quelque chose, les priorités changent. Par exemple, avec l'amélioration des conditions sanitaires, l'avènement des vaccins et des antibiotiques, la peste a commencé à être perçue non pas comme une manifestation de la punition divine, mais comme le résultat du mauvais état des soins de santé.

1. Guerre nucléaire

Alors que seules deux bombes atomiques ont été utilisées jusqu'à présent - à Hiroshima et Nagasaki pendant la Seconde Guerre mondiale - et que les stocks ont diminué depuis leurs pics de guerre froide, ce serait une erreur de penser que la guerre nucléaire est impossible. En fait, elle ne semble pas incroyable.

Image
Image

La crise des missiles cubains était sur le point de devenir nucléaire. Si nous partons de l'hypothèse qu'une telle crise survient tous les 69 ans et qu'il y a une chance sur trois qu'elle puisse conduire au déclenchement d'une guerre nucléaire, alors la possibilité d'une telle catastrophe augmente et le coefficient correspondant sera de 1 sur 200 par an.

Pour aggraver les choses, la crise des missiles de Cuba n'est que le cas le plus célèbre. L'histoire de la dissuasion nucléaire soviéto-américaine est truffée de situations de crise et d'erreurs dangereuses. La probabilité réelle ne dépend plus de la tension internationale, cependant, la probabilité d'un conflit nucléaire ne sera probablement pas inférieure à un coefficient de 1 sur 1000 par an.

Une guerre nucléaire à grande échelle entre les grandes puissances entraînerait la mort de centaines de millions de personnes directement au moment de l'échange de frappes ou à cause de leurs conséquences - ce serait une catastrophe impensable. Cependant, pour le risque existentiel, cela ne suffit toujours pas.

Il faut en dire autant des risques associés aux conséquences des explosions nucléaires - ils sont souvent exagérés. Localement, ils sont mortels, mais globalement, ils constituent un problème relativement limité. Les bombes au cobalt ont été proposées comme une hypothétique arme apocalyptique capable de tout détruire en raison des conséquences liées à leur utilisation, mais en pratique elles sont très difficiles à fabriquer et coûteuses. Et leur création, en fait, est impossible.

La véritable menace est l'hiver nucléaire, c'est-à-dire les particules de suie qui peuvent monter dans la stratosphère et provoquer ainsi une baisse à long terme de la température et une déshydratation de la planète. Les simulations climatiques actuelles montrent que cela rendrait impossible l'exploitation d'une grande partie de la planète pendant de nombreuses années.

Si ce scénario se réalise, des milliards de personnes mourront de faim et un petit nombre de survivants seront exposés à d'autres menaces, notamment la maladie. La principale incertitude concerne le comportement des particules de suie qui montent dans le ciel: en fonction de leur composition, le résultat peut être différent, et jusqu'à présent nous n'avons pas de moyen fiable de mesurer ce genre de conséquences.

2. Pandémies causées par la bio-ingénierie

Les pandémies naturelles ont fait plus de morts que les guerres. Cependant, il est peu probable que les pandémies naturelles constituent une menace existentielle. Il y a généralement des personnes immunisées contre les agents pathogènes et les descendants des survivants sont encore plus protégés.

Image
Image

L'évolution n'est pas non plus particulièrement favorable aux parasites qui détruisent les organismes hôtes, c'est pourquoi la syphilis, en se propageant en Europe, est passée d'un tueur vicieux à une maladie chronique.

Malheureusement, nous sommes maintenant capables de rendre les maladies plus destructrices. L'un des exemples les plus connus est la façon dont l'inclusion d'un gène supplémentaire dans la variole de la souris - la variante murine de la variole - l'a rendue beaucoup plus menaçante pour la vie et capable d'infecter des individus déjà vaccinés. Des travaux récents sur la grippe aviaire ont montré que le caractère infectieux de la maladie peut être volontairement augmenté.

Actuellement, le risque que quelqu'un propage délibérément une sorte d'infection malveillante est négligeable. Cependant, à mesure que la biotechnologie s'améliorera et deviendra moins chère, de plus en plus de groupes pourront rendre la maladie encore plus dangereuse.

L'essentiel du travail dans le domaine des armes biologiques est effectué par des États qui veulent faire contrôler quelque chose, car la destruction de l'humanité n'est pas utile militairement. Cependant, il y a toujours des gens qui viennent faire certaines choses simplement parce qu'ils sont capables de le faire. D'autres peuvent avoir des objectifs plus nobles.

Par exemple, des membres du groupe religieux Aum Shinrikyo ont tenté d'accélérer le déclenchement de l'apocalypse grâce à l'utilisation d'armes biologiques, pas seulement grâce à leur attaque plus réussie utilisant du gaz neurotoxique. Certaines personnes pensent que la situation sur Terre s'améliorera s'il n'y a plus d'êtres humains dessus, et ainsi de suite.

Le nombre de décès dus à l'utilisation d'armes biologiques et de maladies épidémiques fait penser qu'ils se développent selon une loi de puissance - dans un grand nombre de cas, il y a peu de victimes, mais dans un petit nombre de cas, il y a beaucoup de victimes. Compte tenu des données actuellement disponibles, le risque d'une pandémie mondiale due au bioterrorisme semble faible.

Mais cela ne s'applique qu'au bioterrorisme: les gouvernements à l'aide d'armes biologiques ont tué beaucoup plus de personnes que les bioterroristes (environ 400 000 personnes ont été victimes du programme de guerre biologique japonais pendant la Seconde Guerre mondiale). La technologie devient de plus en plus puissante et il sera donc plus facile de créer encore plus d'agents pathogènes à l'avenir.

3. Superintelligence

L'intelligence est puissante. L'augmentation marginale de la résolution de problèmes et de la coordination de groupe est la raison pour laquelle le reste des espèces de singes sont sans travail. À l'heure actuelle, leur existence dépend des décisions prises par la personne et non de ce qu'elle fait.

Image
Image

Être intelligent est une véritable excellence pour les personnes et les organisations, et donc beaucoup d'efforts sont consacrés à l'amélioration de notre intelligence individuelle et collective, des médicaments pour améliorer les capacités cognitives au développement de programmes liés à l'intelligence artificielle.

Le problème est que les systèmes intelligents réussissent bien à atteindre leurs objectifs, mais si ces objectifs sont mal définis, ils ont la capacité d'utiliser leur puissance pour atteindre leurs objectifs catastrophiques de manière intelligente. Il n'y a aucune raison de penser que l'intellect lui-même est capable de faire agir quelque chose ou quelqu'un correctement et moralement. En fait, il est possible que certains types de systèmes superintelligents défient les règles morales même si elles étaient possibles.

Encore plus troublant est le fait que lorsque nous essayons d'expliquer les choses à l'intelligence artificielle, nous sommes confrontés à de profonds problèmes pratiques et philosophiques. Les valeurs humaines sont des questions vagues et complexes que nous ne pouvons pas encore bien définir, et même si nous le pouvions, nous pourrions ne pas comprendre toutes les implications de ce que nous essayons de créer.

L'intelligence logicielle peut combler très rapidement l'écart avec les humains et les capacités de la machine peuvent devenir dangereuses. Le problème est que l'intelligence artificielle peut être liée à l'intelligence biologique de différentes manières: elle peut fonctionner plus rapidement sur des ordinateurs plus rapides, certaines de ses parties peuvent être localisées sur plus d'ordinateurs, certaines versions peuvent être testées et mises à jour à la volée, et il existe une possibilité d'introduire de nouveaux algorithmes susceptibles d'augmenter considérablement les performances.

Aujourd'hui, nombreux sont ceux qui supposent qu'une «percée en matière de renseignement» est probable si les programmes eux-mêmes ont une capacité suffisante pour produire de meilleurs programmes. Si ce genre de saut se produit, alors il y aura une grande différence entre le système intelligent (ou les gens qui lui disent quoi faire) et le reste du monde. Une telle situation pourrait très bien conduire au désastre si les objectifs ne sont pas fixés correctement.

La chose inhabituelle à propos de la superintelligence est que nous ne savons pas si une percée rapide et puissante est possible dans le développement de l'intelligence: peut-être que notre civilisation actuelle dans son ensemble s'améliore au rythme le plus élevé. Cependant, il y a des raisons suffisantes de croire que certaines technologies sont capables de faire avancer certaines choses beaucoup plus rapidement que les possibilités d'améliorer leur contrôle par la société moderne.

De plus, nous ne sommes pas encore en mesure de comprendre à quel point certaines formes de superintelligence peuvent être dangereuses et comment les stratégies d'atténuation fonctionneront. Il est très difficile de spéculer sur les technologies futures que nous n'avons pas encore, ou sur des renseignements qui surpassent ce que nous avons. Parmi les risques répertoriés, c'est précisément celui-ci qui a le plus de chances de devenir soit vraiment à grande échelle, soit de ne rester qu'un mirage.

En général, ce domaine n'a pas encore été suffisamment étudié, ce qui est surprenant. Même dans les années 1950 et 1960, les gens étaient pleinement convaincus que la superintelligence pouvait être créée «en l'espace d'une génération», mais à cette époque, les problèmes de sécurité ne recevaient pas l'attention voulue. Peut-être que les gens ne prenaient tout simplement pas leurs prédictions au sérieux et, très probablement, les considéraient comme un problème dans un avenir lointain.

4. Nanotechnologie

La nanotechnologie consiste à contrôler la matière avec une précision atomique ou moléculaire. En soi, il n'est pas dangereux et, au contraire, peut être une très bonne nouvelle pour de nombreux usages. Le problème est que, comme en biotechnologie, les opportunités croissantes augmentent également le potentiel d'abus contre lequel il est très difficile de se défendre.

Image
Image

Le gros problème n'est pas le fameux «goo gris» des nanomachines auto-réplicantes qui dévorent tout. Cela nécessitera la création d'appareils très sophistiqués. Il est difficile de créer une machine capable de se reproduire: la biologie, par définition, est meilleure dans ce genre de tâche. Peut-être que certains maniaques pourront le faire, mais il y a des fruits plus accessibles sur l'arbre des technologies destructrices.

Le risque le plus évident est que la fabrication automatique de précision semble être idéale pour la fabrication bon marché d'objets comme les armes. Dans un monde où de nombreux gouvernements auront la capacité d '«imprimer» un grand nombre de systèmes d'armes autonomes ou semi-autonomes (y compris la possibilité d'augmenter leur production), la course aux armements peut devenir très intense - et par conséquent, accroître l'instabilité, et il peut donc être très tentant de lancer une première frappe. jusqu'au moment où l'ennemi obtient un grand avantage.

Les armes peuvent aussi être de très petite taille et très précises: elles peuvent être un «poison intelligent» qui peut agir non seulement comme un gaz neurotoxique, mais aussi sélectionner leurs victimes, ou encore des micro-robots omniprésents (gnatbots), des systèmes de surveillance miniatures pour maintenir la population obéissante - tout cela est tout à fait possible. En outre, les armes et installations nucléaires qui affectent le climat peuvent tomber entre les mains d'intrus.

Nous ne pouvons pas estimer la probabilité d'un risque existentiel posé par les futures nanotechnologies, mais, apparemment, elles peuvent être assez destructrices simplement parce qu'elles sont capables de donner ce que nous voulons.

5. Inconnu mystérieux

La possibilité la plus alarmante est qu'il y ait quelque chose de mortel dans le monde, mais nous ne savons pas ce que c'est.

Image
Image

Le silence dans le ciel peut en être la preuve. L'absence d'extraterrestres est-elle due au fait que la vie et l'intelligence sont très rares, ou parce que la vie intelligente a tendance à être détruite? S'il y a un futur Grand Filtre, alors d'autres civilisations auraient dû le remarquer, mais même cela n'a pas aidé.

Quelle que soit une telle menace, elle serait presque inévitable même si vous étiez conscient de son existence, peu importe qui vous êtes ou ce que vous êtes vraiment. Nous ne savons rien de ce type de menace (aucune des menaces ci-dessus ne fonctionne de cette façon), mais elles peuvent exister.

Notez que la présence de quelque chose d'inconnu ne signifie pas que nous ne pouvons pas en raisonner. Un article de Max Tegmark et Nick Bostrom montre qu'un ensemble donné de risques devrait avoir un ratio inférieur à un sur un milliard par an, en fonction de l'âge relatif de la Terre.

Cela peut vous surprendre que le changement climatique et les effets des météores ne figurent pas sur cette liste. Il est peu probable que le changement climatique, aussi désastreux soit-il, rende la planète entière inhabitable (mais il pourrait poser des menaces supplémentaires si nos défenses s'avèrent inefficaces). Les météores, bien sûr, peuvent nous effacer de la surface de la Terre, mais dans ce cas, nous devons être de très grands perdants.

Habituellement, un certain type de mammifère existe depuis environ un million d'années. Ainsi, le principal taux d'extinction naturelle est d'environ un sur un million par an. C'est nettement moins que le risque d'une guerre nucléaire, qui, 70 ans plus tard, est toujours la plus grande menace pour notre existence continue.

Les heuristiques de disponibilité nous obligent à surestimer les risques souvent discutés dans les médias et à minimiser ceux que l'humanité n'a pas encore rencontrés. Si nous voulons continuer d'exister même après un million d'années, nous devons corriger cette situation.

Anders Sandberg

Science populaire

Recommandé: