De Quoi Le Développeur De L'intelligence Artificielle A-t-il Peur Dans Sa Création - Vue Alternative

Table des matières:

De Quoi Le Développeur De L'intelligence Artificielle A-t-il Peur Dans Sa Création - Vue Alternative
De Quoi Le Développeur De L'intelligence Artificielle A-t-il Peur Dans Sa Création - Vue Alternative

Vidéo: De Quoi Le Développeur De L'intelligence Artificielle A-t-il Peur Dans Sa Création - Vue Alternative

Vidéo: De Quoi Le Développeur De L'intelligence Artificielle A-t-il Peur Dans Sa Création - Vue Alternative
Vidéo: INTELLIGENCE ARTIFICIELLE: les développeurs doivent-il en avoir peur ? 2024, Mai
Anonim

En tant que chercheur en IA, je suis souvent confronté à l'opinion que de nombreuses personnes ont peur de l'IA et de ce qu'elle peut devenir. En fait, il n'est pas surprenant si vous regardez du point de vue de l'histoire humaine, tout en prêtant attention à ce que l'industrie du divertissement nous nourrit, que les gens puissent avoir peur d'une cyber rébellion qui nous obligera à vivre dans des zones isolées et à transformer d'autres en une sorte de batteries humaines de type «Matrix» …

Et pourtant, pour moi, en regardant tous ces modèles informatiques évolutifs que j'utilise dans le développement de l'IA, il est difficile de penser que mes créatures inoffensives, pures comme des larmes de bébé, sur mon écran d'ordinateur peuvent un jour se transformer en monstres d'une dystopie futuriste. Puis-je vraiment être qualifié de "destructeur de mondes", comme Oppenheimer l'a regretté et dit de lui-même après avoir dirigé le programme de création d'une bombe nucléaire?

Peut-être accepterais-je une telle renommée, ou peut-être que les critiques de mon travail ont raison après tout? Peut-être que je devrais vraiment arrêter d'éviter les questions sur mes craintes à propos de l'IA en tant qu'expert en IA?

Peur de l'imprévisibilité

Le HAL 9000, le rêve de l'écrivain de science-fiction Arthur Charles Clarke et réalisé par le cinéaste Stanley Kubrick dans A Space Odyssey en 2001, est un excellent exemple d'un système qui s'est écrasé en raison de circonstances imprévues.

Dans de nombreux systèmes complexes - le Titanic, la navette spatiale de la NASA et la centrale nucléaire de Tchernobyl - les ingénieurs ont dû combiner de nombreux composants. Peut-être que les architectes de ces systèmes étaient bien conscients de la façon dont chacun de ses éléments fonctionnait individuellement, mais ils ne comprenaient pas assez bien comment tous ces composants fonctionneraient ensemble.

Vidéo promotionelle:

Le résultat a été des systèmes qui n'ont jamais été entièrement compris par leurs propres créateurs, ce qui a entraîné des conséquences bien connues. Dans chaque cas, le navire a coulé, deux navettes ont explosé et presque toute l'Europe et certaines parties de l'Asie ont été confrontées au problème de la contamination radioactive - un ensemble de problèmes relativement petits qui se sont produits simultanément, créant un effet catastrophique.

Je peux parfaitement imaginer comment nous, les créateurs de l'IA, pouvons arriver à des résultats similaires. Nous prenons les derniers développements et recherches en sciences cognitives (la science de la pensée - ndlr), les traduisons en algorithmes informatiques et ajoutons tout cela aux systèmes existants. Nous essayons de développer l'IA sans comprendre pleinement notre propre intelligence et conscience.

Des systèmes comme Watson d'IBM ou Alpha de Google sont des réseaux de neurones artificiels dotés d'une puissance de calcul impressionnante et de la capacité de s'attaquer à des tâches vraiment complexes. Mais pour l'instant, la seule chose à laquelle une erreur dans leur travail mènera sera le résultat d'une perte dans le jeu intellectuel "Jeopardy!" ou une occasion manquée de vaincre le meilleur jeu de plateau logique du monde, Go.

Ces conséquences ne sont pas de nature globale. En fait, la pire chose qui puisse arriver aux gens dans ce cas est que quelqu'un perd une certaine somme d'argent dans les paris.

Cependant, l'architecture de l'IA devient plus complexe et les processus informatiques sont de plus en plus rapides. Les capacités de l'IA ne feront qu'augmenter avec le temps. Et déjà cela nous amènera au fait que nous allons commencer à attribuer de plus en plus de responsabilités à l'IA, même en dépit des risques croissants de circonstances imprévues.

Nous sommes bien conscients que «les erreurs font partie de la nature humaine», il nous sera donc tout simplement physiquement impossible de créer un système vraiment sûr en tout.

Peur du mauvais usage

Je ne suis pas vraiment inquiet de l'imprévisibilité des conséquences dans le travail de l'IA, que je développe en utilisant l'approche dite de neuroévolution. Je crée des environnements virtuels et les peuplent de créatures numériques, donnant à leur cerveau des commandes pour résoudre des problèmes de complexité croissante.

Au fil du temps, l'efficacité de la résolution des problèmes de ces créatures augmente et évolue. Ceux qui font le meilleur travail sont sélectionnés pour la reproduction, créant une nouvelle génération sur leur base. Au fil des générations, ces créatures numériques développent des capacités cognitives.

Par exemple, en ce moment, nous faisons les premiers pas dans le développement de machines au niveau de l'exécution de tâches de navigation simples, de la prise de décisions simples ou de la mémorisation de quelques informations. Mais bientôt, nous verrons le développement de machines capables d'effectuer des tâches plus complexes et ayant un niveau global d'intelligence beaucoup plus efficace. Notre objectif ultime est de créer une intelligence au niveau humain.

Au cours de cette évolution, nous essaierons de trouver et de corriger tous les bogues et problèmes. À chaque nouvelle génération, les machines seront mieux à même de faire face aux erreurs que les précédentes. Cela augmentera les chances que nous soyons en mesure d'identifier toutes les conséquences imprévisibles dans les simulations et de les éliminer avant même qu'elles ne puissent être réalisées dans le monde réel.

Une autre opportunité offerte par la méthode évolutive de développement est de doter l'intelligence artificielle d'éthique. Il est probable que des caractéristiques éthiques et morales d'une personne telles que la fiabilité et l'altruisme soient le résultat de notre évolution et un facteur dans sa poursuite.

Nous pouvons créer un environnement bâti et permettre aux machines de faire preuve de gentillesse, d'honnêteté et d'empathie. Cela pourrait être un moyen de nous assurer de développer des serviteurs plus obéissants que des robots tueurs impitoyables. Cependant, si la neuroévolution peut réduire le niveau de conséquences involontaires dans le comportement de l'IA, elle ne peut pas empêcher l'utilisation abusive de l'intelligence artificielle.

En tant que scientifique, je dois respecter mon engagement envers la vérité et rapporter ce que j'ai découvert grâce à mes expériences, que j'aime les résultats ou non. Mon travail n'est pas de déterminer ce que j'aime et ce que je n'aime pas. La seule chose importante est que je puisse rendre mon travail public.

Peur des mauvaises priorités sociales

Être scientifique ne signifie pas perdre son humanité. Je dois renouer avec mes espoirs et mes peurs à un certain niveau. En tant qu'individu à motivation morale et politique, je dois considérer les conséquences potentielles de mon travail et ses effets possibles sur la société.

En tant que scientifiques et en tant que représentants de la société, nous ne sommes toujours pas parvenus à une idée claire de ce que nous voulons exactement obtenir de l'IA et de ce qu'elle devrait devenir. Ceci est, bien sûr, en partie dû au fait que nous ne comprenons toujours pas pleinement son potentiel. Mais encore, nous devons clairement comprendre et décider ce que nous voulons obtenir d'une intelligence artificielle vraiment avancée.

L'emploi est l'un des domaines les plus importants auxquels les gens prêtent attention lorsqu'ils parlent d'IA. Les robots effectuent déjà un travail physique complexe pour nous, comme l'assemblage et le soudage de pièces de carrosserie. Mais un jour viendra le jour où les robots seront chargés d'exécuter des tâches cognitives, c'est-à-dire qu'ils seront chargés de ce qui était auparavant considéré comme une capacité exclusivement unique de la personne elle-même. Les voitures autonomes peuvent remplacer les chauffeurs de taxi; les avions autonomes n'auront pas besoin de pilotes.

Au lieu de recevoir des soins médicaux dans des salles d'urgence remplies de personnel et de médecins toujours fatigués, les patients pourront effectuer des examens et apprendre des diagnostics à l'aide de systèmes experts avec un accès instantané à toutes les connaissances médicales. Les opérations chirurgicales seront effectuées par des robots insensibles à la fatigue, avec une «main parfaitement entraînée».

Des conseils juridiques seront disponibles dans un cadre juridique complet. Pour les conseils en investissement, nous nous tournerons vers des systèmes de prévision de marché experts. Peut-être qu'un jour tout le travail humain sera effectué par des machines. Même mon travail peut être fait plus rapidement en utilisant un grand nombre de machines recherchant sans relâche comment rendre les machines encore plus intelligentes.

Dans les réalités de notre société actuelle, l'automatisation oblige déjà les gens à quitter leur emploi, ce qui rend les riches propriétaires de ces machines automatisées encore plus riches et les autres encore plus pauvres. Mais ce n'est pas un problème scientifique. Il s'agit d'un problème politique et socio-économique que la société elle-même doit résoudre.

Mes recherches ne changeront rien à cela, mais mes fondements politiques, ainsi que l'humanité, peuvent conduire à des circonstances dans lesquelles l'IA peut devenir une fonction extrêmement utile, au lieu d'élargir l'écart entre un pour cent de l'élite mondiale et le reste d'entre nous.

Peur d'un scénario catastrophique

Nous sommes arrivés à la peur finale qui nous est imposée par le fou HAL 9000, le Terminator et toute autre super-intelligence vilaine. Si l'IA continue d'évoluer jusqu'à ce qu'elle dépasse l'intelligence humaine, un système superintelligent artificiel (ou une collection de tels systèmes) considérerait-il les humains comme sans valeur? Comment justifier notre existence face à une superintelligence capable de faire et de créer ce qu'aucune autre personne ne peut? Pourrons-nous éviter le sort d'être effacés de la surface de la Terre par les machines que nous avons contribué à créer?

Par conséquent, la question la plus importante dans de telles circonstances ressemblera à ceci: pourquoi la superintelligence artificielle aura-t-elle besoin de nous?

Si une telle situation s'était produite, je dirais probablement que je suis une bonne personne qui a même contribué à la création de cette superintelligence, à laquelle je suis confronté maintenant. Je ferais appel à sa compassion et à son empathie, afin que la superintelligence me laisse, si compatissante et empathique, en vie. J'ajouterais également que la diversité des espèces elle-même a une valeur et que l'univers est si vaste que l'existence de l'espèce humaine en lui est en fait assez insignifiante.

Mais je ne peux pas parler au nom de toute l'humanité, il me sera donc difficile de trouver un argument valable pour nous tous. C'est juste que quand je nous regarde tous, je vois vraiment que nous avons fait beaucoup et que nous faisons beaucoup de mal. La haine l'un pour l'autre règne dans le monde. Nous partons en guerre les uns contre les autres. Nous distribuons injustement de la nourriture, des connaissances et des soins de santé. Nous polluons la planète. Dans ce monde, bien sûr, il y a beaucoup de bonnes choses, mais si vous regardez toutes les mauvaises choses que nous avons créées et que nous continuons de créer, il sera très difficile de trouver un argument pour soutenir notre existence continue.

Heureusement, nous n'avons pas encore à justifier notre existence. Nous avons encore le temps. De 50 à 250 ans, selon la rapidité avec laquelle l'intelligence artificielle se développe. En tant qu'espèce, nous avons la capacité de nous rassembler et de trouver une bonne réponse à la question de savoir pourquoi la superintelligence ne devrait pas nous effacer de la surface de la planète.

Il sera très difficile de résoudre ce problème. Après tout, dire que nous soutenons la diversité et les différences ethnoculturelles, et pour ce faire, sont des choses complètement différentes. Comment dire que nous voulons sauver la planète et y faire face avec succès.

Nous tous, que ce soit chaque individu ou société dans son ensemble, devons nous préparer à un scénario catastrophique, en utilisant ce temps pour être prêt à montrer et à prouver pourquoi nos créations devraient nous permettre de continuer à exister. Ou nous pouvons simplement continuer à croire aveuglément qu'un tel développement d'événements est impossible, et simplement arrêter de parler de ce sujet.

Cependant, quel que soit le danger physique que la superintelligence peut nous poser, nous ne devons pas oublier qu'elle posera également un danger politique et économique. Si nous ne trouvons pas un moyen d’améliorer notre niveau de vie, nous finirons par alimenter simplement le capitalisme avec un travailleur de l’intelligence artificielle qui ne servira que quelques privilégiés qui ont tous les moyens de production.

Cet article a été initialement publié sur theconversation.com par Arend Hintze, professeur agrégé au Département de biologie intégrative, d'informatique et d'ingénierie, Université du Michigan

Nikolay Khizhnyak

Recommandé: