L'intelligence Artificielle: Une épée à Double Tranchant? - Vue Alternative

L'intelligence Artificielle: Une épée à Double Tranchant? - Vue Alternative
L'intelligence Artificielle: Une épée à Double Tranchant? - Vue Alternative

Vidéo: L'intelligence Artificielle: Une épée à Double Tranchant? - Vue Alternative

Vidéo: L'intelligence Artificielle: Une épée à Double Tranchant? - Vue Alternative
Vidéo: Helena : l’intelligence artificielle de mes rêves (1/7) | ARTE 2024, Mai
Anonim

Nous disons que les robots augmenteront. Cela prendra le contrôle du monde, prendra le contrôle de tout. Nous entendons ces avertissements depuis des décennies et aujourd'hui, au début du 21e siècle, le nombre de ces avertissements ne fait qu'augmenter. Il y a une peur croissante de l'intelligence artificielle qui mettra fin à notre espèce.

De tels scripts ne sont pas seulement achetés à Hollywood, mais trouvent également de plus en plus de partisans dans le domaine scientifique et philosophique. Par exemple, Ray Kurzweil a écrit que la croissance exponentielle de l'intelligence artificielle conduirait à une singularité technologique, le point où l'intelligence artificielle dépassera l'intelligence humaine. Certains y voient la fin du monde, d'autres ne voient que des opportunités. Nick Bostrom pense que la superintelligence nous aiderait à lutter contre la maladie, la pauvreté et la destruction de l'environnement, ainsi qu'à nous améliorer.

Mardi, le célèbre scientifique Stephen Hawking a rejoint les rangs des prophètes de la singularité, plus précisément de leur groupe pessimiste, en déclarant à la BBC que «le développement d'une intelligence artificielle à part entière peut signifier la fin de la race humaine». Il pense que les humains ne pourront pas rivaliser avec l'IA, qui pourra se reprogrammer et atteindre un niveau bien supérieur à l'humain. Cependant, Hawking pense également que nous ne devrions pas du tout essayer de contacter des extraterrestres, car ils n'auront qu'un seul objectif: nous soumettre ou nous détruire complètement.

Le problème avec ces scénarios n'est pas qu'ils sont inévitablement faux - qui peut prédire l'avenir? - ou ne pas croire les scripts de science-fiction. Ce dernier est inévitable si vous souhaitez comprendre et évaluer les technologies modernes et leur impact sur nous à l'avenir. Il est important de mettre nos questions philosophiques sur la table dans de tels scénarios et d'examiner nos peurs pour comprendre ce qui compte le plus pour nous.

Le problème de se concentrer exclusivement sur l'intelligence artificielle dans le contexte de la «fin du monde» et d'autres scénarios fatals est que cela nous distrait d'autres problèmes éthiques et sociaux, plus urgents et importants, qui se posent en relation avec les développements technologiques dans ces domaines. Par exemple, y a-t-il une place pour la vie privée dans le monde des technologies de l'information et de la communication? Google, Facebook et Apple menacent-ils la liberté dans le monde technologique? Une automatisation plus poussée entraînera-t-elle des pertes d'emplois? Les nouvelles technologies financières peuvent-elles menacer l'économie mondiale? Comment les appareils mobiles affectent-ils l'environnement? (Au crédit de Hawking, il a mentionné la vie privée dans les interviews, mais il a encore parlé de la fin de l'ère humaine.)

Ces questions sont beaucoup moins attrayantes que la superintelligence ou la fin de l'humanité. Ils ne soulèvent pas non plus de questions sur l'intelligence ou les robots; ils concernent le type de société dont nous avons besoin et la manière dont nous voulons voir notre vie.

Ces questions sont anciennes, elles sont apparues dès l'apparition même de la science et de la philosophie, et les technologies de l'information croissantes d'aujourd'hui, qui changent notre monde, nous font à nouveau réfléchir. Espérons que les meilleurs esprits humains de notre époque concentreront l'essentiel de leurs énergies sur la recherche de réponses aux bonnes questions, plutôt que sur la démagogie autour de menaces exagérées.

Ilya Khel

Vidéo promotionelle:

Recommandé: