Scientifique: Il N'y A Pas De Restrictions Fondamentales Sur La Création D'une Machine Intelligente - Vue Alternative

Table des matières:

Scientifique: Il N'y A Pas De Restrictions Fondamentales Sur La Création D'une Machine Intelligente - Vue Alternative
Scientifique: Il N'y A Pas De Restrictions Fondamentales Sur La Création D'une Machine Intelligente - Vue Alternative

Vidéo: Scientifique: Il N'y A Pas De Restrictions Fondamentales Sur La Création D'une Machine Intelligente - Vue Alternative

Vidéo: Scientifique: Il N'y A Pas De Restrictions Fondamentales Sur La Création D'une Machine Intelligente - Vue Alternative
Vidéo: L' intelligence artificielle - Younès Bennani - 18/10/2018 2024, Septembre
Anonim

Mikhail Burtsev, chef du laboratoire des systèmes neuronaux et de l'apprentissage profond à l'Institut de physique et de technologie de Moscou, explique s'il est possible de créer un analogue informatique à part entière de l'esprit humain et explique pourquoi les scientifiques le développent et comment le protéger des attaques de trolls.

Fin juillet, des scientifiques du MIPT ont lancé un concours international de systèmes d'intelligence artificielle «parlés» capables d'imiter un vivant, et ont invité tous ceux qui voulaient communiquer avec eux et évaluer les dialogues qui en résultent. Avec l'aide de bénévoles, les scientifiques espèrent créer dans les trois prochaines années un assistant vocal capable de communiquer avec une personne presque aussi bien qu'avec un interlocuteur vivant.

Le concours était co-organisé par des scientifiques des universités de Montréal, McGill et Carnegie Mellon. Vous pouvez participer aux tests des systèmes de dialogue en suivant le lien.

En fait, ces idées n'ont pas été inventées aujourd'hui - les assistants vocaux modernes de Google, Apple, Amazon et d'autres sociétés informatiques sont enracinés dans un passé profond, au tout début de l'ère informatique. La première machine parlante de ce type, nommée ELIZA, a été créée en 1966 et était, en fait, une blague, une parodie d'un psychothérapeute donnant des conseils inutiles à un patient.

Au cours des années et des décennies suivantes, les programmeurs ont créé des systèmes de plus en plus complexes et «vivants» pour communiquer avec un ordinateur. Le plus avancé de ces systèmes peut reconnaître l'humeur du propriétaire, se souvenir de ses vieux désirs et préférences et résoudre certaines des tâches quotidiennes et ménagères pour lui, commander de la nourriture ou des marchandises dans le magasin ou jouer le rôle d'un opérateur dans les centres d'appels.

Mikhail, près de 50 ans se sont écoulés depuis la création d'ELIZA. Qu'est-ce qui a changé en général pendant cette période et peut-on, en principe, s'attendre à ce qu'à l'avenir les scientifiques soient capables de créer un tel système que les gens ne peuvent pas distinguer d'un interlocuteur vivant?

- Je pense que dans un futur proche, il sera possible de créer une technologie d'intelligence parlée qui permettra à la machine d'approcher le niveau du dialogue humain. Nous travaillons sur cette tâche dans le cadre du projet iPavlov, qui fait partie de la National Technology Initiative.

L'utilisateur doit être aussi à l'aise pour communiquer avec un système de dialogue automatique qu'avec une personne vivante. Cela permettra de créer des systèmes d'information capables de mieux comprendre ce qu'une personne attend d'elle et de lui répondre en langage naturel.

Vidéo promotionelle:

L'intelligence conversationnelle peut être utilisée pour automatiser de nombreuses interfaces vocales et textuelles, y compris des messagers tels que Telegram. Les messagers, comme le montrent les statistiques, sont aujourd'hui utilisés plus activement que les réseaux sociaux, et une très grande quantité d'informations passe par les canaux de communication textuelle.

Par exemple, ils sont pratiques à utiliser dans les transports, et l'ajout d'un assistant interactif - un chat bot - permettra aux utilisateurs non seulement de communiquer entre eux, mais aussi de recevoir les informations nécessaires, de faire des achats et de faire beaucoup d'autres choses. Cela conduira au fait que les messageries instantanées et les assistants vocaux remplaceront progressivement les pages Web et applications habituelles, et joueront également le rôle de consultants en ligne et de spécialistes des centres d'appels.

Compte tenu de la présence d'Apple, de Google et d'Amazon sur ce marché, la Russie peut-elle rivaliser ici? Y a-t-il une spécificité de la langue russe qui pourrait gêner les concurrents potentiels des entreprises et des scientifiques russes?

- Bien sûr, la langue russe est plus complexe, et certaines des méthodes qui sont utilisées aujourd'hui dans le développement de systèmes de dialogue et d'assistants vocaux dans le monde ne peuvent pas être appliquées sans raffinement et modification significative qui leur permettraient de travailler avec une grammaire plus riche.

D'autre part, les algorithmes de base utilisés dans le travail de Siri, Cortana, Google et autres assistants numériques, personne ne se cache - ils nous sont disponibles au moins au niveau de la recherche et des concepts. Les articles de recherche et le code de programme sont souvent accessibles au public - en principe, ils peuvent être adaptés au russe.

Mikhail Burtsev, chef du laboratoire des systèmes neuronaux et de l'apprentissage profond, MIPT
Mikhail Burtsev, chef du laboratoire des systèmes neuronaux et de l'apprentissage profond, MIPT

Mikhail Burtsev, chef du laboratoire des systèmes neuronaux et de l'apprentissage profond, MIPT

De plus, il n'y a pas beaucoup de tentatives pour mettre cela en œuvre au niveau «industriel». Le seul grand projet est dirigé par Yandex, qui développe un assistant pour le projet Alice.

Dans notre projet, nous essayons de créer des outils qui simplifieraient et accéléreraient la création de tels systèmes de dialogue «industriels» conçus à des fins diverses. Mais développer un assistant vocal universel capable de résoudre n'importe quel problème est une tâche extrêmement difficile, même pour les grandes entreprises.

D'autre part, l'automatisation d'une petite entreprise qui utilisera un système de dialogue spécialisé est beaucoup plus facile à mettre en œuvre. Nous espérons que les outils que nous allons créer aideront les entrepreneurs et les programmeurs à résoudre ces problèmes assez rapidement, sans avoir de connaissances approfondies et sans appliquer de super efforts pour cela.

De nombreux scientifiques, comme Roger Penrose ou Stuart Hameroff, pensent que l'esprit humain est de nature quantique et qu'il est impossible de construire un analogue de la machine en principe. Êtes-vous d'accord avec eux ou non?

- À mon avis, si nous regardons ce que nous savons aujourd'hui sur la structure du cerveau et la nature de la conscience humaine, alors jusqu'à présent nous ne sommes confrontés à aucun obstacle fondamental pour reproduire son travail à l'aide d'un ordinateur.

Penrose et Hameroff ont un ensemble d'hypothèses qui, selon eux, expliquent pourquoi cela ne peut pas être fait. Jusqu'à présent, les neurophysiologistes n'ont trouvé aucune preuve expérimentale que ces hypothèses sont correctes, et notre base de connaissances actuelle plaide en faveur du contraire.

Une autre chose est que le délai de création d'une telle machine n'est pas entièrement défini. Il me semble que cela peut arriver dans au moins 50, voire 100 ans.

Cela nécessitera-t-il des technologies et des ordinateurs fondamentalement nouveaux, plus proches dans les principes de fonctionnement des neurones que de la logique numérique?

- Si nous croyons que l'intelligence humaine est basée sur une forme de calcul, alors tout système informatique universel équivalent à une machine de Turing peut, en théorie, imiter le travail du cerveau humain.

Une autre chose est que cette machine peut fonctionner très lentement, ce qui la rend inutile d'un point de vue pratique. Aujourd'hui, il est difficile de deviner de quelles technologies nous aurons besoin pour construire des ordinateurs.

Quelles autres tâches les assistants numériques peuvent-ils résoudre, en plus de ce qu'ils font aujourd'hui? Peuvent-ils être utilisés pour déchiffrer des textes dans des langues mortes ou des cryptages comme le manuscrit de Voynich?

- Pour le moment, pour autant que je sache, personne n'a essayé d'utiliser les réseaux de neurones pour découvrir les secrets de langues mortes et déchiffrer des textes, mais il me semble que quelqu'un essaiera de le faire dans un proche avenir. Nous, à notre tour, ne nous sommes pas encore intéressés à de telles choses.

«Helper» est en fait un concept très large qui peut inclure de nombreuses choses très différentes. Si l'on prend, par exemple, la même ELIZA, une «psychothérapeute» virtuelle, la question se pose: est-elle assistante ou pas?

Les systèmes conversationnels peuvent être utilisés non seulement pour résoudre des problèmes pratiques, mais aussi pour divertir les gens ou maintenir leur humeur. La question ici, en fait, est de savoir ce que nous entendons par le concept d'assistant personnel et à quel point il est large ou étroit. Au sens le plus large, de tels systèmes peuvent résoudre tous les problèmes liés à la communication, bien qu'avec des degrés de réussite variables.

Les interfaces conversationnelles, en plus de la communication directe avec les gens, peuvent également être utilisées pour apprendre aux machines à trouver rapidement un langage commun et à transférer des informations d'un système à un autre.

Cela évitera le problème de l'établissement de liens et du transfert de données entre les services existants et créés, car ils n'auront pas besoin de connaître les spécifications d'API de l'autre pour communiquer entre eux. Ils pourront échanger des données en utilisant des langages naturels ou leur propre langage artificiel qui sera inventé par des machines ou des humains à de telles fins.

En gros, même les systèmes "inconnus" les uns des autres pourront s'entendre sur l'utilisation d'un langage de communication commun pour eux, et non de règles fixes pour l'échange d'informations. S'ils ne comprennent pas quelque chose, ils peuvent s'interroger mutuellement sur des choses inconnues, ce qui rendra l'ensemble de l'infrastructure de fourniture de services et de services sur Internet incroyablement flexible et lui permettra d'intégrer rapidement de nouveaux services sans l'aide de personnes.

A cet égard, la question se pose - qui devrait être responsable des recommandations du "psychothérapeute" ELIZA, des informaticiens et autres assistants vocaux, dont les conseils peuvent grandement affecter le bien-être et la santé d'une personne?

- C'est une question très difficile, car aujourd'hui il n'y a pas de critères clairs qui nous aideraient à comprendre comment agir dans de tels cas. De nombreux services et services Internet qui émettent des recommandations aux utilisateurs ne commencent à fonctionner qu'après que l'utilisateur accepte les conditions de service et les conséquences qui peuvent résulter de son utilisation.

Il me semble que le travail des robots de discussion et des assistants vocaux - du moins aux premiers stades de leur existence - pourrait être réglementé de la même manière. Par exemple, si un robot recherche et analyse simplement des informations, agissant à peu près de la même manière qu'un moteur de recherche, les mêmes règles peuvent lui être appliquées. Dans le cas où il donnerait des conseils médicaux ou juridiques, la forme de la responsabilité devrait être différente.

Par exemple, de tels systèmes devraient informer clairement l'utilisateur des conséquences du choix entre l'intelligence artificielle et un médecin ordinaire. Une personne aura le choix - faire confiance au médecin qui, par exemple, se trompera dans 10% des cas, ou miser sur une machine qui donne la mauvaise réponse dans 3% des cas. Dans le premier cas, le médecin sera responsable de l'erreur, et dans le second, l'utilisateur lui-même.

L'année dernière, Microsoft a lancé le chatbot Tay. AI, qu'il a dû désactiver littéralement un jour plus tard car les internautes ont transformé une adolescente en véritable raciste. Est-il possible de protéger de tels systèmes de dialogue des trolls et des farceurs?

- Il me semble que vous pouvez vous défendre, mais le fait de savoir si cela vaut la peine de le faire dépend de l'objectif du système. Il est clair que si le système ne doit pas faire de remarques spécifiques - grossières ou extrémistes, nous pouvons filtrer ses réponses. Ce filtrage peut intervenir soit au stade de l'apprentissage du système, soit déjà lors de la génération des réponses.

D'ailleurs, une tâche similaire d'évaluation de la qualité du dialogue a été résolue par des équipes dans le cadre du hackathon de l'école scientifique DeepHack Turing, qui s'est déroulé au MIPT il y a quelques semaines. Ses participants ont développé des algorithmes qui pouvaient prédire à partir des indices du dialogue le type d'évaluation qu'une personne donnerait au système de dialogue.

La prochaine étape dans le développement de cette approche est la création d'un programme qui évaluerait l'acceptabilité des phrases ou la fiabilité des sources utilisées pour générer des réponses aux requêtes des utilisateurs. Il me semble que cela aiderait à résoudre ce problème.

Recommandé: