Pourquoi Les Scientifiques Ne Devraient Pas Compter Sur L'intelligence Artificielle Pour La Découverte Scientifique - Vue Alternative

Pourquoi Les Scientifiques Ne Devraient Pas Compter Sur L'intelligence Artificielle Pour La Découverte Scientifique - Vue Alternative
Pourquoi Les Scientifiques Ne Devraient Pas Compter Sur L'intelligence Artificielle Pour La Découverte Scientifique - Vue Alternative

Vidéo: Pourquoi Les Scientifiques Ne Devraient Pas Compter Sur L'intelligence Artificielle Pour La Découverte Scientifique - Vue Alternative

Vidéo: Pourquoi Les Scientifiques Ne Devraient Pas Compter Sur L'intelligence Artificielle Pour La Découverte Scientifique - Vue Alternative
Vidéo: La prochaine révolution de l'Intelligence artificielle - Yann LeCun, à l'USI 2024, Mai
Anonim

Nous vivons à l'âge d'or des données scientifiques, entourés de vastes réserves d'informations génétiques, d'imagerie médicale et de données astronomiques. Les capacités actuelles des algorithmes d'apprentissage automatique permettent à l'intelligence artificielle d'étudier ces données aussi rapidement et en même temps très soigneusement, ouvrant souvent la porte à de nouvelles découvertes scientifiques potentielles. Cependant, nous ne devons pas faire confiance aveuglément aux résultats de la recherche scientifique menée par l'IA, déclare Genever Allen, chercheur à l'Université Rice. Du moins pas au niveau actuel de développement de cette technologie. Selon le scientifique, le problème réside dans le fait que les systèmes d'IA modernes n'ont pas la capacité d'évaluer de manière critique les résultats de leurs travaux.

Selon Allen, les systèmes d'intelligence artificielle qui utilisent des méthodes d'apprentissage automatique, c'est-à-dire lorsque l'apprentissage se produit dans le cadre du processus d'application de solutions à de nombreux problèmes similaires, et pas simplement en introduisant et en suivant de nouvelles règles et réglementations, peuvent être fiables pour prendre certaines décisions. Plus précisément, il est tout à fait possible d'attribuer des tâches à l'IA pour résoudre des problèmes dans les domaines où le résultat final peut être facilement vérifié et analysé par la personne elle-même. À titre d'exemple, nous pouvons prendre, par exemple, le comptage du nombre de cratères sur la lune ou la prédiction des répliques après un tremblement de terre.

Cependant, la précision et l'efficacité d'algorithmes plus complexes qui sont utilisés pour analyser de très grandes quantités de données afin de trouver et de déterminer des facteurs auparavant inconnus ou des relations entre différentes fonctions «sont beaucoup plus difficiles à vérifier», note Allen. Ainsi, l'impossibilité de vérifier les données appariées par de tels algorithmes peut conduire à des conclusions scientifiques erronées.

Prenons, par exemple, la médecine de précision, où les spécialistes analysent les métadonnées des patients pour trouver des groupes spécifiques de personnes ayant des caractéristiques génétiques similaires afin de développer des traitements efficaces. Certains programmes d'IA conçus pour passer au crible les données génétiques sont en effet efficaces pour identifier des groupes de patientes ayant une prédisposition similaire, par exemple, à développer un cancer du sein. Cependant, ils s'avèrent totalement inefficaces pour identifier d'autres types de cancer, par exemple, colorectal. Chaque algorithme analyse les données différemment, donc lors de la combinaison des résultats, il peut souvent y avoir un conflit dans la classification de l'échantillon de patients. Cela conduit à son tour les scientifiques à se demander à quelle IA faire confiance.

Ces contradictions proviennent du fait que les algorithmes d'analyse des données sont conçus de manière à obéir aux instructions énoncées dans ces algorithmes, qui ne laissent aucune place à l'indécision, à l'incertitude, explique Allen.

Les scientifiques n'aiment pas l'incertitude. Cependant, les méthodes traditionnelles de détermination des incertitudes de mesure sont conçues pour les cas où il est nécessaire d'analyser des données qui ont été spécialement sélectionnées pour évaluer une hypothèse particulière. Ce n'est pas ainsi que fonctionnent les programmes d'IA pour l'exploration de données. Ces programmes ne sont guidés par aucune idée directrice et analysent simplement les ensembles de données collectés sans objectif spécifique particulier. Par conséquent, de nombreux chercheurs en IA, dont Allen elle-même, développent actuellement de nouveaux protocoles qui permettront aux systèmes d'IA de la prochaine génération d'évaluer l'exactitude et la reproductibilité de leurs découvertes.

Vidéo promotionelle:

Le chercheur explique que l'une des nouvelles méthodes d'extraction sera basée sur le concept de rééchantillonnage. Par exemple, si un système d'IA est censé faire une découverte importante, par exemple, identifie des groupes de patients cliniquement importants pour la recherche, alors cette découverte doit être affichée dans d'autres bases de données. Il est très coûteux pour les scientifiques de créer de nouveaux ensembles de données plus volumineux pour valider l'échantillonnage de l'IA. Par conséquent, selon Allan, il est possible d'utiliser une approche dans laquelle "l'ensemble de données existant sera utilisé, les informations dans lesquelles seront mélangées au hasard de manière à imiter une toute nouvelle base de données". Et si à maintes reprises l'IA peut déterminer les traits caractéristiques qui permettent d'effectuer le classement nécessaire, «alors il sera possible d'envisagerque vous avez une véritable découverte entre les mains », ajoute Allan.

Nikolay Khizhnyak

Recommandé: