Les Scientifiques Ont Cessé De Comprendre Comment Fonctionne L'intelligence Artificielle - Vue Alternative

Les Scientifiques Ont Cessé De Comprendre Comment Fonctionne L'intelligence Artificielle - Vue Alternative
Les Scientifiques Ont Cessé De Comprendre Comment Fonctionne L'intelligence Artificielle - Vue Alternative

Vidéo: Les Scientifiques Ont Cessé De Comprendre Comment Fonctionne L'intelligence Artificielle - Vue Alternative

Vidéo: Les Scientifiques Ont Cessé De Comprendre Comment Fonctionne L'intelligence Artificielle - Vue Alternative
Vidéo: La prochaine révolution de l'Intelligence artificielle - Yann LeCun, à l'USI 2024, Mai
Anonim

Les scientifiques et les programmeurs ont cessé de comprendre comment l'intelligence artificielle prend des décisions. Ce problème a été annoncé par plusieurs spécialistes lors de la principale conférence sur l'IA - Neural Information Processing Systems - tenue à Long Beach (Californie).

Les experts interrogés par Quartz disent qu'ils doivent agir avant que le système ne devienne trop complexe.

«Nous ne voulons pas prendre les décisions de l'IA pour acquises sans comprendre leur logique», déclare Jason Yosinski d'Uber. "Pour que la société accepte les modèles d'apprentissage automatique, nous devons savoir comment l'IA parvient à certaines conclusions."

Le problème que de nombreux experts appellent la «boîte noire» est vraiment sérieux. L'expérience précédente a montré que l'IA a tendance à prendre des décisions biaisées et à faire des analogies là où elle ne devrait pas. Alors que les réseaux de neurones infiltrent progressivement les forces de l'ordre, le système de santé, la recherche scientifique et les algorithmes qui déterminent ce que vous voyez sur votre fil d'actualité Facebook, l'erreur d'IA peut être très coûteuse.

À titre d'exemple, Kiri Wagstaff, un expert en IA au Jet Propolusion Lab (NASA), cite une mission sur Mars. Les appareils sont situés à 200 millions de kilomètres de la Terre et coûtent des centaines de millions de dollars, donc toute erreur dans le travail de l'IA est tout simplement inacceptable.

«Les gens ont besoin de savoir ce que fait l'IA et pourquoi. Sinon, comment peuvent-ils lui faire confiance pour contrôler le matériel coûteux? », Déclare Wagstaff.

Pour le moment, le scientifique travaille sur un algorithme qui trie les images prises par divers vaisseaux spatiaux de la NASA. Le nombre d'images se chiffrant en millions, l'ordinateur vous permet de trier et de mettre en évidence les plus intéressantes sans passer beaucoup de temps sur ce processus. Le problème, cependant, réside dans le fait que souvent seule l'IA sait à elle seule pourquoi certaines images qu'elle sélectionne sont inhabituelles.

Ainsi, conclut Wagstaff, s'il y a une erreur à l'intérieur de cet algorithme, un jour il peut manquer des informations très importantes.

Vidéo promotionelle:

«Fondamentalement, l'ordinateur vous donne une image et dit:« Regardez, c'est intéressant ». Mais vous ne pouvez pas toujours comprendre pourquoi c'est intéressant: à cause de la couleur, de la forme des objets ou de leur emplacement dans l'espace - vous ne le savez probablement pas », dit le scientifique.

Hannah Wallach, chercheuse senior chez Microsoft, partage les conclusions de ses collègues.

«À mesure que l'apprentissage automatique se généralise et que les enjeux augmentent, nous ne pouvons plus considérer ces systèmes comme des boîtes noires. Nous devons comprendre ce qui se passe en eux et ce qu'ils font », a déclaré le chercheur.

Les scientifiques tentent heureusement de trouver des méthodes pour comprendre la logique de l'intelligence artificielle. Ainsi, le chercheur de Google Mitra Raghu a présenté un rapport qui décrit le processus de suivi des actions des «neurones» individuels d'un réseau neuronal. En analysant des millions d'opérations, elle a pu déterminer lequel des «neurones» artificiels se concentrait sur les idées fausses et les désactiver. Cela prouve que traduire le travail des réseaux de neurones sous une forme accessible à la compréhension humaine n'est pas une tâche impossible.

Une autre option pour résoudre le problème est de tester régulièrement les compétences développées par l'intelligence artificielle.

«C’est comme si les enseignants demandent aux enfants de raconter avec leurs propres mots ce qu’ils ont compris de l’explication de l’enseignant», dit Wagstaff.

Cela étant dit, l'importance de comprendre les éléments internes de l'algorithme n'est pas seulement d'empêcher un rover hypothétique de tomber d'un rocher martien; En réalisant ce qu'est l'échec, vous pouvez améliorer encore davantage les systèmes existants.

«Si votre système ne fonctionne pas et que vous ne savez pas pourquoi, alors il est très difficile d’y remédier», déclare Yosinski. "Si vous savez ce qui s'est passé, alors la situation peut toujours être corrigée."

Matériaux utilisés du site hightech.fm

Recommandé: