Les Gens Ne Font Pas Confiance à L'intelligence Artificielle. Comment Le Réparer? - Vue Alternative

Table des matières:

Les Gens Ne Font Pas Confiance à L'intelligence Artificielle. Comment Le Réparer? - Vue Alternative
Les Gens Ne Font Pas Confiance à L'intelligence Artificielle. Comment Le Réparer? - Vue Alternative

Vidéo: Les Gens Ne Font Pas Confiance à L'intelligence Artificielle. Comment Le Réparer? - Vue Alternative

Vidéo: Les Gens Ne Font Pas Confiance à L'intelligence Artificielle. Comment Le Réparer? - Vue Alternative
Vidéo: WEBINAIRE #2: PEUT-ON FAIRE CONFIANCE À L'INTELLIGENCE ARTIFICIELLE? 2024, Mai
Anonim

L'intelligence artificielle peut déjà prédire l'avenir. La police l'utilise pour dresser une carte indiquant quand et où le crime peut se produire. Les médecins l'utilisent pour prédire quand un patient pourrait avoir un accident vasculaire cérébral ou une crise cardiaque. Les scientifiques essaient même de donner à l'IA une imagination pour qu'elle puisse anticiper des événements inattendus.

De nombreuses décisions dans notre vie nécessitent de bonnes prédictions, et les agents de l'IA sont presque toujours meilleurs que les humains. Pourtant, malgré toutes ces avancées technologiques, nous manquons toujours de confiance dans les prédictions fournies par l'intelligence artificielle. Les gens n'ont pas l'habitude de s'appuyer sur l'IA et préfèrent faire confiance aux experts humains, même si ces experts se trompent.

Image
Image

Si nous voulons que l'intelligence artificielle profite aux humains, nous devons apprendre à lui faire confiance. Pour ce faire, nous devons comprendre pourquoi les humains sont si persistants à refuser de faire confiance à l'IA.

Faites confiance au Dr Robot

La tentative d'IBM d'introduire un programme de supercalcul aux oncologues (Watson for Oncology) a échoué. AI s'est engagée à fournir des recommandations de traitement de haute qualité pour 12 cancers, représentant 80% des cas dans le monde. À ce jour, plus de 14 000 patients ont reçu des recommandations basées sur ses calculs.

Mais lorsque les médecins ont rencontré Watson pour la première fois, ils se sont retrouvés dans une situation plutôt difficile. D'une part, si Watson a fourni des directives de traitement qui correspondaient à leurs propres opinions, la profession médicale ne voyait pas beaucoup de valeur dans les recommandations de l'IA. Le supercalculateur leur disait simplement ce qu'ils savaient déjà, et ces recommandations n'ont pas changé le traitement réel. Cela peut avoir donné aux médecins la tranquillité d'esprit et la confiance dans leurs propres décisions. Mais IBM n'a pas encore prouvé que Watson augmente réellement les taux de survie au cancer.

Vidéo promotionelle:

Image
Image

D'un autre côté, si Watson a fait des recommandations qui étaient en contradiction avec l'opinion d'experts, les médecins ont conclu que Watson était incompétent. Et la machine ne pouvait pas expliquer pourquoi son traitement fonctionnerait parce que ses algorithmes d'apprentissage automatique étaient trop complexes à comprendre pour les humains. En conséquence, cela a conduit à encore plus de méfiance et de nombreux médecins ont tout simplement ignoré les recommandations de l'IA, se fondant sur leur propre expérience.

En conséquence, le partenaire médical en chef d'IBM Watson, le MD Anderson Cancer Center, a récemment annoncé qu'il annulait le programme. L'hôpital danois a également déclaré qu'il abandonnait le programme après avoir découvert que les oncologues étaient en désaccord avec Watson à deux reprises sur trois.

Le problème avec l'oncologie Watson était que les médecins ne lui faisaient tout simplement pas confiance. La confiance des gens dépend souvent de notre compréhension de la façon dont les autres pensent et de notre propre expérience, ce qui renforce la confiance en leur opinion. Cela crée un sentiment de sécurité psychologique. L'IA, en revanche, est relativement nouvelle et incompréhensible pour les humains. Il prend des décisions basées sur un système d'analyse sophistiqué pour identifier les modèles cachés potentiels et les signaux faibles à partir de grandes quantités de données.

Même s'il peut être expliqué en termes techniques, le processus décisionnel de l'IA est généralement trop complexe à comprendre pour la plupart des gens. Interagir avec quelque chose que nous ne comprenons pas peut causer de l'anxiété et créer un sentiment de perte de contrôle. Beaucoup de gens ne comprennent tout simplement pas comment et avec quoi l'IA fonctionne, car cela se produit quelque part derrière l'écran, en arrière-plan.

Pour la même raison, ils sont plus conscients des cas où l'IA se trompe: pensez à l'algorithme de Google qui classe les personnes de couleur comme des gorilles; le chatbot de Microsoft devenu nazi en moins d'un jour; Véhicule Tesla en mode pilote automatique entraînant un accident mortel. Ces exemples malheureux ont reçu une attention disproportionnée des médias, soulignant le fait que nous ne pouvons pas compter sur la technologie. L'apprentissage automatique n'est pas fiable à 100%, en partie parce que les humains le conçoivent.

Une scission dans la société?

Les sentiments qu'évoque l'intelligence artificielle sont profondément ancrés dans la nature de l'être humain. Les scientifiques ont récemment mené une expérience dans laquelle ils ont interrogé des personnes qui regardaient des films sur l'intelligence artificielle (fantaisie) sur le thème de l'automatisation dans la vie quotidienne. Il s'est avéré que, indépendamment du fait que l'IA ait été représentée de manière positive ou négative, le simple fait de regarder une représentation cinématographique de notre avenir technologique polarise les attitudes des participants. Les optimistes deviennent encore plus optimistes et les sceptiques se rapprochent encore plus.

Cela suggère que les gens sont biaisés en faveur de l'IA sur la base de leur propre raisonnement, une tendance profonde de biais de confirmation: la tendance à rechercher ou à interpréter des informations de manière à confirmer des concepts préexistants. L'IA étant de plus en plus présente dans les médias, elle peut favoriser de profondes divisions dans la société, un fossé entre ceux qui utilisent l'IA et ceux qui la rejettent. Un groupe prédominant de personnes peut obtenir un avantage majeur ou un handicap.

Trois moyens de sortir de la crise de confiance de l'IA

Heureusement, nous avons quelques réflexions sur la manière de gérer la confiance dans l'IA. L'expérience de l'IA seule peut considérablement améliorer l'attitude des gens envers cette technologie. Il est également prouvé que plus vous utilisez souvent certaines technologies (comme Internet), plus vous leur faites confiance.

Une autre solution pourrait être d'ouvrir la boîte noire des algorithmes d'apprentissage automatique et de les faire fonctionner de manière plus transparente. Des entreprises comme Google, Airbnb et Twitter publient déjà des rapports de transparence sur les demandes et les divulgations du gouvernement. Ce type de pratique dans les systèmes d'IA aidera les gens à acquérir la compréhension nécessaire de la façon dont les algorithmes prennent des décisions.

La recherche montre que l'implication des personnes dans la prise de décision en matière d'IA augmentera également la confiance et permettra à l'IA d'apprendre de l'expérience humaine. L'étude a révélé que les personnes qui avaient la possibilité de modifier légèrement l'algorithme se sentaient plus satisfaites des résultats de ses travaux, probablement en raison d'un sentiment de supériorité et de la capacité d'influencer les résultats futurs.

Nous n'avons pas besoin de comprendre le fonctionnement interne complexe des systèmes d'IA, mais si nous donnons aux gens ne serait-ce qu'un peu d'informations et de contrôle sur la façon dont ces systèmes sont mis en œuvre, ils auront plus de confiance et le désir d'adopter l'IA dans leur vie quotidienne.

Ilya Khel

Recommandé: