Le Scientifique A Déclaré Que 70 Ans Dans Le Domaine De La Recherche Sur L'IA Ont été Pratiquement Gaspillés - Vue Alternative

Table des matières:

Le Scientifique A Déclaré Que 70 Ans Dans Le Domaine De La Recherche Sur L'IA Ont été Pratiquement Gaspillés - Vue Alternative
Le Scientifique A Déclaré Que 70 Ans Dans Le Domaine De La Recherche Sur L'IA Ont été Pratiquement Gaspillés - Vue Alternative

Vidéo: Le Scientifique A Déclaré Que 70 Ans Dans Le Domaine De La Recherche Sur L'IA Ont été Pratiquement Gaspillés - Vue Alternative

Vidéo: Le Scientifique A Déclaré Que 70 Ans Dans Le Domaine De La Recherche Sur L'IA Ont été Pratiquement Gaspillés - Vue Alternative
Vidéo: LIA INTERMÉDIAIRE ‼️MÉLINA COACHING 2024, Mai
Anonim

La plus grande leçon à tirer de 70 ans de recherche sur l'IA est que les méthodes générales qui utilisent le calcul sont finalement les plus efficaces - et de loin. La raison ultime en est la loi de Moore. Ou plutôt sa généralisation: la réduction exponentielle continue du coût des processeurs informatiques. Cette «amère leçon» a été partagée par Richard Sutton, un informaticien canadien. Plus loin - de la première personne.

Image
Image

Pourquoi la recherche en intelligence artificielle est-elle au point mort depuis 70 ans?

La plupart des recherches sur l'IA ont été menées comme si les calculs disponibles pour l'agent étaient persistants (et dans ce cas, l'utilisation des connaissances humaines serait l'un des seuls moyens d'améliorer les performances). Mais avec le temps - bien plus que les besoins d'un projet de recherche typique -, inévitablement, beaucoup plus de calcul devient disponible. À la recherche d'améliorations susceptibles d'aider à court terme, les scientifiques tentent de maximiser les connaissances humaines dans ce domaine, mais la seule chose qui compte à long terme est l'utilisation croissante de l'informatique. Ces deux aspects ne doivent pas être contraires l'un à l'autre, mais en pratique, ils le sont. Le temps passé sur l'un d'eux n'est pas égal au temps passé sur l'autre. Il existe des obligations psychologiques d'investir dans une approche ou une autre. Et l'approche de la connaissance humaine a tendance à compliquer les méthodes de telle sorte qu'elles deviennent moins adaptées pour tirer parti des méthodes générales qui utilisent le calcul.

Il y a eu de nombreux exemples de chercheurs en IA qui ont tardé à comprendre cette amère leçon. Il sera instructif de considérer certains des exemples les plus marquants.

Aux échecs informatiques, les méthodes qui ont battu le champion du monde Kasparov en 1997 étaient basées sur une recherche massive et profonde. À l'époque, ils étaient vus avec consternation par la plupart des chercheurs d'échecs informatiques qui utilisaient des méthodes basées sur la compréhension humaine de la structure spécifique des échecs. Lorsqu'une approche plus simple et basée sur la recherche avec du matériel et des logiciels spécialisés s'est avérée beaucoup plus efficace, les chercheurs qui s'appuient sur la compréhension humaine des échecs n'ont pas admis leur défaite. Ils ont dit: «Cette fois, l'approche de la force brute a peut-être gagné, mais elle ne deviendra pas une stratégie globale et les gens ne jouent certainement pas aux échecs de cette façon. Ces scientifiques voulaient que les méthodes humaines gagnent, et ont été très déçus quand ils ne l'ont pas fait.

Vidéo promotionelle:

Une image similaire des progrès de la recherche a été observée dans le domaine de l'ordinateur, avec un retard de 20 ans seulement. Au départ, de grands efforts ont été faits pour éviter la recherche en utilisant les connaissances humaines ou le gameplay, mais tous ces efforts étaient inutiles, voire pire, une fois la recherche appliquée efficacement et à grande échelle. Il était également important d'utiliser l'apprentissage dans le processus de jeu indépendant afin d'apprendre la fonction de valeur (comme c'était le cas dans de nombreux autres jeux et même aux échecs, seul l'apprentissage n'a pas joué un grand rôle dans le programme en 1997, qui a battu le champion du monde pour la première fois). Apprendre à jouer avec soi-même, apprendre dans son ensemble, c'est comme une recherche qui permet d'appliquer d'énormes tableaux de calculs. La recherche et l'apprentissage sont deux des classes de techniques les plus importantes qui impliquent d'énormes quantités de calcul dans la recherche en IA. Dans l'ordinateur allerComme pour les échecs informatiques, les efforts initiaux des chercheurs visaient à utiliser la compréhension humaine (de sorte qu'il y ait moins de recherche), et beaucoup plus de succès n'a été obtenu que beaucoup plus tard grâce à l'utilisation de la recherche et de l'apprentissage.

Dans le domaine de la reconnaissance vocale, un concours parrainé par la DARPA a eu lieu dans les années 1970. Les participants ont présenté diverses méthodes qui tiraient parti des connaissances humaines - connaissance des mots ou des phonèmes, du tractus vocal humain, etc. De l'autre côté des barricades, il y avait des méthodes plus récentes, de nature statistique et faisant plus de calcul, basées sur les modèles de Markov cachés (HMM). Encore une fois, les méthodes statistiques l'emportent sur les méthodes fondées sur les connaissances. Cela a conduit à des changements majeurs dans tout le traitement du langage naturel qui ont été progressivement introduits au fil des décennies, jusqu'à ce que finalement les statistiques et le calcul commencent à dominer le domaine. L'essor récent de l'apprentissage profond dans la reconnaissance vocale est la toute dernière étape dans cette direction cohérente. L'apprentissage profond repose encore moins sur les connaissances humaines et utilise encore plus de calcul, ainsi que la formation sur d'énormes ensembles d'échantillons, et produit des systèmes de reconnaissance vocale étonnants.

Richard Sutton, informaticien canadien
Richard Sutton, informaticien canadien

Richard Sutton, informaticien canadien.

Comme dans les jeux, les scientifiques ont toujours essayé de créer des systèmes qui fonctionneraient comme ils l'avaient imaginé dans leur tête - ils ont essayé de mettre ces connaissances dans leurs systèmes - mais tout s'est avéré extrêmement improductif, les scientifiques perdaient juste du temps - en raison de la loi de Moore - des calculs de plus en plus massifs sont devenus disponibles et ont trouvé d'excellentes applications.

Une image similaire était dans le domaine de la vision par ordinateur. Les premières méthodes étaient perçues comme une recherche de certains contours, cylindres généralisés, ou utilisant les capacités de SIFT (transformation invariante à l'échelle des entités). Mais aujourd'hui, tout cela a été jeté dans le four. Les réseaux de neurones modernes d'apprentissage en profondeur n'utilisent que le concept de convolution et certains invariants et fonctionnent bien mieux.

C'est une excellente leçon.

Où que nous regardions, nous continuons à faire les mêmes erreurs partout. Pour voir cela et y faire face efficacement, vous devez comprendre pourquoi ces erreurs sont si attrayantes. Nous devons apprendre l'amère leçon que construire notre façon de penser à partir de ce que nous pensons ne fonctionnera pas à long terme. Une leçon amère basée sur des observations historiques montre que: 1) les chercheurs en IA ont souvent essayé d'intégrer des connaissances à leurs agents; 2) cela a toujours aidé à court terme et a apporté la satisfaction des scientifiques; 3) mais à long terme, tout s'est arrêté et a entravé la poursuite des progrès; 4) les progrès perturbateurs sont inévitablement venus avec l'approche opposée, basée sur la mise à l'échelle du calcul par la recherche et l'apprentissage. Le succès avait un goût amer et n'était souvent pas complètement absorbé.parce que c'est le succès de l'informatique, pas le succès des approches centrées sur l'humain.

Une chose à apprendre de cette amère leçon est l'énorme puissance des méthodes polyvalentes, des méthodes qui continuent à évoluer avec la croissance du calcul alors même que le calcul disponible devient très important. Deux méthodes qui semblent évoluer de manière arbitraire de cette façon sont la recherche et l'apprentissage.

La deuxième chose à tirer de cette amère leçon est que le contenu réel de l'esprit est extrêmement et inutilement complexe; nous devrions cesser d'essayer de trouver des moyens simples de donner un sens au contenu de l'esprit, semblables à des moyens simples de donner un sens à l'espace, aux objets, aux agents multiples ou aux symétries. Ils font tous partie d'un monde extérieur arbitrairement complexe. Nous ne devons pas essayer de construire sur eux, car leur complexité est infinie; nous devrions nous appuyer sur des méta-méthodes capables de trouver et de capturer cette complexité arbitraire. Ces méthodes peuvent trouver de bonnes approximations, mais leur recherche doit être effectuée par nos méthodes, pas par nous. Nous avons besoin d'agents IA capables de découvrir de la même manière que nous le pouvons, et non de contenir ce que nous avons découvert. S'appuyer sur nos découvertes ne fait que compliquer le processus de découverte et de recherche.

Ilya Khel

Recommandé: