Une Véritable Intelligence Artificielle Peut être Créée En Résolvant Trois Problèmes Principaux - - Vue Alternative

Table des matières:

Une Véritable Intelligence Artificielle Peut être Créée En Résolvant Trois Problèmes Principaux - - Vue Alternative
Une Véritable Intelligence Artificielle Peut être Créée En Résolvant Trois Problèmes Principaux - - Vue Alternative

Vidéo: Une Véritable Intelligence Artificielle Peut être Créée En Résolvant Trois Problèmes Principaux - - Vue Alternative

Vidéo: Une Véritable Intelligence Artificielle Peut être Créée En Résolvant Trois Problèmes Principaux - - Vue Alternative
Vidéo: L'Intelligence Artificielle en Afrique : Réalisations, Problèmes, Enjeux et Solutions 2024, Mai
Anonim

Lors d'une conférence sur l'apprentissage automatique en profondeur à Londres le mois dernier, un sujet a été soulevé à plusieurs reprises: l'importance de comprendre ce que nous faisons vraiment. Alors que des entreprises comme Google continuent d'affirmer que nous vivons tous au "premier siècle de l'IA", alors que l'apprentissage automatique commence à peine à découvrir de nouveaux domaines d'activité (tels que la reconnaissance vocale et d'image), ceux qui sont vraiment à la pointe de la recherche sur l'IA, cherchez à souligner qu'il y a beaucoup plus de défis à relever avant que l'ère véritable de l'IA n'arrive. Même si nous avons déjà des assistants numériques qui peuvent parler comme des ordinateurs dans les films de science-fiction, cela ne signifie pas que nous sommes sérieusement près de créer une véritable intelligence artificielle.

Au final, tous les problèmes qui s'opposent à la création d'une véritable IA sont les suivants: dans la quantité d'informations qui devront y être investies; dans notre incapacité à créer une IA qui pourrait aussi bien faire face à plusieurs tâches à la fois; eh bien, en fait, nous n'avons aucune idée de la manière dont ces systèmes devraient fonctionner. Les technologies d'apprentissage automatique sont déjà capables de faire des choses merveilleuses en 2016, mais ces choses peuvent parfois être difficiles à expliquer, même pour les créateurs eux-mêmes. Sans parler de combien d'argent tout cela coûte. Examinons de plus près les complexités auxquelles les ingénieurs IA sont confrontés aujourd'hui.

L'information d'abord, puis l'IA

Nous comprenons tous parfaitement que l'IA doit avoir accès à l'information pour étudier le monde qui nous entoure, mais nous ne comprenons pas exactement la quantité d'informations nécessaires. Selon Neil Lawrence, professeur au département d'apprentissage automatique de l'Université de Sheffield et membre de l'équipe de développement de technologies d'intelligence artificielle chez Amazon, ces systèmes auront besoin de centaines et de milliers de fois plus d'informations que les humains pour apprendre à comprendre le monde et à reconnaître certains objets.

«Si vous examinez tous les secteurs et domaines dans lesquels les ingénieurs ont obtenu un certain succès dans le domaine du machine learning, vous pouvez immédiatement voir la quantité d’informations utilisée pour résoudre tous ces problèmes», déclare Lawrence, citant comme exemple les mêmes technologies de reconnaissance vocale et d'image.

Des entreprises comme Google et Facebook ont accès à des montagnes d'informations, ce qui, bien sûr, facilite la création de divers outils utiles (les mêmes technologies de recherche vocale pour Android, par exemple).

Pour Lawrence, l'information est maintenant ce qu'était le charbon dans les premières années de la révolution industrielle. À titre d'exemple, Lawrence cite Thomas Newcomen, un Anglais qui a créé en 1712 (en fait 60 ans avant la création d'une telle machine par James Watt) une version primitive d'une machine à vapeur alimentée au charbon. L'invention de Newcomen n'était pas parfaite. Comparée à la machine de Watt, elle s'est avérée inefficace et trop coûteuse à utiliser. Pour la plupart, il ne pouvait être utilisé que dans les mines de charbon, où la quantité de carburant nécessaire compensait les lacunes de la machine.

Un exemple de la technologie de reconnaissance d'image ouverte de Facebook

Vidéo promotionelle:

Image
Image

Lawrence pense que des centaines de ces Newcomen dans le monde pourraient développer leurs propres modèles d'apprentissage automatique. Peut-être y a-t-il des idées vraiment révolutionnaires parmi eux, mais sans que leurs technologies n'accèdent à d'énormes bases de données d'informations les concernant, personne ne le saura probablement jamais. Les grandes entreprises comme Google, Facebook et Microsoft - ce sont les «mineurs de charbon» les plus modernes. Ils ont accès à une quantité illimitée d'informations, ce qui leur permet de créer des systèmes d'apprentissage automatique inefficaces, puis de les améliorer. Les petites startups peuvent en effet avoir de bonnes idées, mais elles ne réaliseront jamais rien de valable sans accès aux bases d'informations.

Ce problème devient encore plus clair lorsque vous examinez les domaines dans lesquels il est encore plus difficile d'obtenir les informations dont vous avez besoin. Prenons, par exemple, le système de santé, où l'IA pourrait être utilisée pour effectuer des tâches liées à la vision industrielle - trouver et reconnaître des tumeurs malignes sur les rayons X, par exemple. Mais l'accès à ces données est généralement très limité. Le principal facteur limitatif ici, selon Lawrence, est la perception actuelle des gens selon laquelle il est contraire à l'éthique pour des tiers d'accéder à ce type d'informations. Le principal problème, selon Lawrence, n'est pas de trouver des moyens de diffuser des informations, mais de savoir comment rendre les systèmes d'apprentissage automatique plus efficaces et apprendre à travailler avec moins d'informations. Et ces améliorations d'efficacité, selon le scientifique, pourraient durer les mêmes 60 ans.comme ce fut le cas avec la voiture de Watt.

La spécialisation est une impasse. L'IA doit être capable d'effectuer plusieurs tâches à la fois

Un autre défi majeur auquel est confronté le développement de modèles d'apprentissage automatique vraiment profond est le fait que tous nos systèmes d'IA actuels sont, en fait, très stupides. Selon Rya Hudsell, chercheuse chez Google DeepMind, ces systèmes peuvent en fait apprendre à effectuer des tâches de reconnaissance de chat, à jouer et en même temps à être très efficaces dans l'exécution de ces tâches. Mais "pour le moment dans le monde, il n'y a pas un seul réseau neuronal à part entière et des méthodes qui l'entraîneraient à reconnaître les images, à jouer à Space Invaders et à contempler la musique." À leur tour, ce sont les réseaux de neurones qui sont la base clé de la création de systèmes d'apprentissage profond pour les machines.

Et ce problème est bien plus important qu'il n'y paraît à première vue. Lorsque DeepMind a annoncé en février dernier qu'il avait construit un système capable de jouer à 49 jeux Atari, cela pouvait vraiment être considéré comme une grande réussite. Mais à la fin, il s'est avéré qu'après que le système ait terminé le passage d'un jeu, il doit à chaque fois être recyclé pour jouer un autre. Hudsell note que nous ne pouvons pas apprendre au système à jouer à tous les jeux à la fois, car les règles de chacun se mélangent et interfèrent finalement avec la tâche. Chaque fois que vous devez réapprendre la machine, et chaque fois que le système «oublie» comment jouer au jeu précédent.

«Pour créer une intelligence artificielle générale, nous avons besoin de quelque chose qui nous aidera à apprendre à une machine à effectuer plusieurs tâches à la fois. Maintenant, nous ne pouvons même pas les entraîner à jouer à des jeux », dit Hadsell.

La solution peut être cachée dans les soi-disant réseaux de neurones progressifs - combinant des systèmes d'apprentissage profond indépendants en un seul ensemble pour un travail plus efficace avec l'information. Dans un article scientifique publié traitant de cette question, Hadsell et son équipe de chercheurs ont expliqué comment leur réseau de neurones progressif était capable de s'adapter dans le jeu Pong, les conditions dans lesquelles chaque fois étaient quelque peu différentes (dans un cas, les couleurs étaient changées; dans l'autre, elles étaient confuses. contrôle), beaucoup plus rapide que le réseau de neurones «ordinaire», qui devait être réentraîné à chaque fois.

Le principe de base d'un réseau de neurones progressif

Image
Image

La méthode s'est avérée très prometteuse et a récemment été utilisée pour régler des bras robotiques, accélérant ainsi le processus d'apprentissage d'une semaine à un seul jour. Malheureusement, cette méthode a également ses limites. Hudsell note que dans le cas des réseaux de neurones progressifs, le processus d'apprentissage ne peut être réduit à simplement ajouter de nouvelles tâches à leur mémoire. Si vous continuez à combiner de tels systèmes ensemble, alors vous arriverez tôt ou tard à «un modèle trop complexe qu'il sera impossible de tracer». Dans ce cas, nous parlerons d'un niveau différent. Le niveau auquel diverses tâches seront généralement exécutées de la même manière. Construire une IA capable de concevoir des chaises et créer une IA du niveau d'intelligence humaine capable d'écrire des poèmes et de résoudre des équations différentielles n'est pas la même chose.

L'IA peut être appelée IA si nous pouvons montrer comment cela fonctionne

Un autre obstacle de taille est de comprendre comment l'intelligence artificielle arrivera à ses conclusions lors de la résolution de problèmes. Les réseaux neuronaux sont généralement imperméables à l'observateur. Bien que nous sachions comment ils sont collectés et comment les informations les traversent, les décisions qu'ils prennent restent généralement irréalisables.

L'expérience Virginia Tech est un excellent exemple de ce problème. Les chercheurs ont créé un système de suivi pour le réseau neuronal qui enregistre les pixels d'une image numérique avec lesquels l'ordinateur commence son analyse. Les chercheurs ont montré les images du réseau neuronal de la chambre et lui ont posé la question: "Qu'est-ce qui est accroché aux fenêtres?" La machine, au lieu de regarder directement les fenêtres, a commencé à analyser les images à partir du sol. Un lit est entré dans son champ de vision et la voiture a répondu: "il y a des rideaux aux fenêtres." La réponse s'est avérée correcte, mais uniquement parce que le système a été "appris" à travailler avec une quantité limitée de données. Sur la base de l'image montrée, le réseau neuronal a conclu que si la photo montre une chambre à coucher, il devrait probablement y avoir des rideaux aux fenêtres. Alors, lorsqu'un détail est entré dans son champ de vision,qui se trouve généralement dans n'importe quelle chambre (dans ce cas, un lit), elle n'a pas analysé davantage l'image. Elle n'a peut-être même pas vu ce lit, elle a vu les rideaux. C'est logique, mais très superficiel et attiré. De plus, de nombreuses chambres n'ont pas de rideaux!

La technologie de suivi n'est qu'un outil qui peut nous aider à comprendre ce qui pousse une machine à prendre une décision particulière, mais il existe de meilleures méthodes qui peuvent ajouter plus de logique et une analyse approfondie aux systèmes d'apprentissage automatique. Murray Shanahan, professeur de robotique cognitive à l'Imperial College de Londres, estime que la meilleure solution au problème est de réviser le paradigme démodé de l'IA - l'IA symbolique, ou GOFAI (Good Old-Fashioned Artificial Intelligence, «good old artificiel intelligence»). Son paradigme se résume au fait qu'absolument n'importe quelle tâche peut être décomposée en éléments logiques de base, où chaque mot n'est qu'un ensemble complexe de symboles simples. En combinant ces symboles - dans des actions, des événements, des objets, etc. - la pensée peut être synthétisée. Il suffit de penser que de tels développements ont été réalisés à l'époque où les ordinateurs étaient des boîtiers géants de la taille d'une pièce, fonctionnant sur bande magnétique (les travaux ont commencé au milieu des années 50 et se sont poursuivis jusqu'à la fin des années 80 du siècle dernier).

La proposition de Shanahan est de combiner les descriptions symboliques GOFAI et les technologies d'apprentissage en profondeur. Cela permettra non seulement de nourrir ces systèmes de nouvelles informations et d'attendre qu'ils déduisent certains schémas de comportement et de résolution de problèmes basés sur ces informations, l'approche de Shanahan est conçue pour doter ces systèmes de points de départ pour comprendre le monde. Cela, à son avis, résoudra non seulement le problème de la transparence de l'IA, mais aussi le problème de l'apprentissage transférable décrit par Hadsell.

«On peut dire que Breakout est très similaire à Pong, car dans les deux cas, des« plates-formes »et des« balles »sont utilisées, mais du point de vue de la perception humaine et de la logique, ce sont deux jeux complètement différents. Et il est pratiquement impossible de faire des parallèles entre eux. C'est comme essayer de combiner la structure de l'atome et la structure de tout le système solaire."

Shanahan et ses collègues de l'Imperial College de Londres travaillent actuellement sur une nouvelle méthode d'apprentissage automatique (qu'ils appellent apprentissage stimulé symbolique profond) et ont déjà publié les résultats de quelques petites expériences. La méthode en est encore à ses débuts, et il est donc difficile de dire encore si elle évoluera vers des systèmes plus grands fonctionnant avec différents types de données. Néanmoins, il y a encore des chances que cette méthode devienne quelque chose de plus. Après tout, l'apprentissage en profondeur a toujours été la partie la plus ennuyeuse et ennuyeuse du développement de l'IA jusqu'à ce que les chercheurs trouvent un moyen d'accéder rapidement aux données et acquièrent une puissance de traitement énorme. Tout à fait possible,il est temps de revenir aux anciens paradigmes de l'IA et de les essayer dans un nouvel environnement.

NIKOLAY KHIZHNYAK