L'intelligence Artificielle Est Loin D'être Aussi Intelligente Que Vous Et Elon Musk Le Pensez - Vue Alternative

Table des matières:

L'intelligence Artificielle Est Loin D'être Aussi Intelligente Que Vous Et Elon Musk Le Pensez - Vue Alternative
L'intelligence Artificielle Est Loin D'être Aussi Intelligente Que Vous Et Elon Musk Le Pensez - Vue Alternative

Vidéo: L'intelligence Artificielle Est Loin D'être Aussi Intelligente Que Vous Et Elon Musk Le Pensez - Vue Alternative

Vidéo: L'intelligence Artificielle Est Loin D'être Aussi Intelligente Que Vous Et Elon Musk Le Pensez - Vue Alternative
Vidéo: WATCH: Elon Musk discuss Starlink Internet at MWC 2021 - Livestream 2024, Mai
Anonim

En mars 2016, l'algorithme informatique AlphaGo de DeepMind a réussi à vaincre Lee Sedol, alors le meilleur joueur de puzzle go au monde. Cet événement est devenu l'un de ces moments décisifs de l'histoire de l'industrie technologique, qui est à un moment donné la victoire de l'ordinateur Deep Blue d'IBM sur le champion du monde d'échecs Garry Kasparov, et la victoire du supercalculateur Watson du même IBM au quiz Jeopardy en 2011.

Pourtant, malgré ces victoires, aussi impressionnantes soient-elles, il s'agit plus d'algorithmes d'entraînement et d'utilisation de la puissance de calcul brute que d'intelligence artificielle réelle. L'ancien professeur de robotique du MIT, Rodney Brooks, qui a cofondé iRobot et plus tard Rethink Robotics, affirme qu'apprendre un algorithme pour jouer à un puzzle stratégique complexe n'est pas de l'intelligence. Du moins pas comme nous l'imaginons pour une personne.

L'expert explique que quelle que soit la force d'AlphaGo dans l'accomplissement de la tâche qui lui a été confiée, en fait, il n'est capable de rien d'autre. De plus, il est configuré pour ne jouer à Go que sur un terrain standard de 19 x 19. Dans une interview avec TechCrunch, Brooks a expliqué comment il avait récemment eu l'occasion de discuter avec l'équipe DeepMind et de découvrir un détail intéressant. Interrogée sur ce qui se passerait si les organisateurs changeaient la taille du go board et l'augmentaient à 29 x 29 carrés, l'équipe AlphaGo lui a admis que même un léger changement du terrain de jeu conduirait au fait que "nous avons terminé".

«Je pense que les gens voient à quel point un algorithme fait une chose, et ils semblent immédiatement penser qu'il peut en faire d'autres tout aussi efficacement. Mais le fait est qu'il ne peut pas », a commenté Brooks.

Intelligence brute

En mai de cette année, dans une interview avec Davin Coldway à TechCrunch Disrupt, Kasparov a noté que développer un ordinateur capable de jouer aux échecs au niveau mondial est une chose, mais qualifier un tel ordinateur d'intelligence artificielle pure, puisque ce n'est pas le cas, en est une autre. C'est juste une machine qui met toute sa puissance de calcul dans la résolution d'un problème qu'elle a l'habitude de faire le mieux.

«Aux échecs, les machines gagnent grâce à la puissance du calcul en profondeur. Ils peuvent devenir complètement invincibles avec une énorme base de données, un matériel très rapide et des algorithmes plus logiques. Cependant, ils manquent de compréhension. Ils ne reconnaissent pas les modèles stratégiques. Les machines n'ont aucun but », a déclaré Kasparov.

Vidéo promotionelle:

Gil Pratt, PDG de l'Institut Toyota, la division de l'IA et de l'IA de Toyota dans les robots domestiques et les voitures autonomes, s'est également entretenu avec TechCrunch lors de la session robotique. À son avis, la peur que nous entendons de la part d'un large éventail de personnes, dont Elon Musk, qui a récemment qualifié l'intelligence artificielle de «menace existentielle pour l'humanité», n'est peut-être due qu'à ces descriptions dystopiques du monde que la science-fiction nous offre.

«Nos systèmes d'apprentissage en profondeur actuels sont aussi efficaces pour exécuter les tâches qui leur sont assignées que nous les avons conçus. Mais en réalité, ils sont très spécialisés et de petite taille. Par conséquent, j'estime qu'il est à chaque fois important, dans le contexte de ce sujet, de mentionner à la fois à quel point ils sont bons et à quel point ils sont réellement inefficaces. Et aussi à quel point nous sommes loin du point où ces systèmes peuvent commencer à poser la menace dont parlent Elon Musk et d'autres », a commenté Pratt.

Brooks, à son tour, a noté lors de la session TechCrunch Robotics qu'il existe une tendance chez les gens en général à croire que si un algorithme est capable de faire face à la tâche X, il est apparemment aussi intelligent qu'une personne.

«Je pense que la raison pour laquelle les gens, y compris Elon Musk, font cette erreur est la suivante. Quand on voit une personne faire un très bon travail avec la tâche qui lui est assignée, on comprend qu'elle a une haute compétence en la matière. Il me semble que les gens essaient d'appliquer le même modèle à l'apprentissage automatique. Et c’est là que réside la plus grosse erreur », dit Brooks.

Le PDG de Facebook, Mark Zuckerberg, a tenu une émission en direct dimanche dernier, au cours de laquelle il a également critiqué les commentaires d'Elon Musk, les qualifiant de "plutôt irresponsables". Selon Zuckerberg, l'intelligence artificielle sera en mesure d'améliorer considérablement nos vies. Musk, à son tour, a décidé de ne pas garder le silence et a répondu à Zuckerberg qu'il avait "une compréhension limitée" de l'IA. Le sujet n'est pas encore clos et Musk a promis un peu plus tard de répondre plus en détail aux attaques de collègues de l'industrie informatique.

En passant, Musk n'est pas le seul à croire que l'IA peut constituer une menace potentielle. Le physicien Stephen Hawking et le philosophe Nick Bostrom expriment également leurs inquiétudes quant au potentiel de l'intelligence artificielle de pénétrer le mode de vie de l'humanité. Mais, très probablement, ils parlent d'une intelligence artificielle plus généralisée. Sur ce qui est étudié dans des laboratoires tels que Facebook AI Research, DeepMind et Maluuba, plutôt que sur l'IA plus spécialisée, dont nous pouvons voir les premiers débuts aujourd'hui.

Brooks note également que de nombreux critiques de l'IA ne travaillent même pas dans ce domaine, et a suggéré que ces personnes ne comprennent tout simplement pas à quel point il peut être difficile de trouver une solution à chaque problème individuel dans ce domaine.

«En fait, peu de gens considèrent l'IA comme une menace existentielle. Stephen Hawking, astrophysicien et astronome britannique Martin Rees … et quelques autres. L'ironie est que la plupart d'entre eux ont une chose en commun - ils ne travaillent même pas dans le domaine de l'intelligence artificielle », a déclaré Brooks.

"Pour ceux d'entre nous qui travaillent avec l'IA, il est évident à quel point il peut être difficile de faire fonctionner quelque chose au niveau du produit fini."

Fausse déclaration de l'IA

Une partie du problème vient aussi du fait que nous appelons tout cela «intelligence artificielle». La vérité est que cette «intelligence» ne ressemble pas du tout à l'intelligence humaine, qui est généralement décrite dans les ouvrages de référence et le vocabulaire comme «la capacité d'apprendre, de comprendre et de s'adapter à de nouvelles situations».

Pascal Kaufman, PDG de Starmind, une startup qui aide d'autres entreprises à utiliser l'intelligence humaine collective pour trouver des solutions aux problèmes des entreprises, étudie les neurosciences depuis 15 ans. Le cerveau humain et l'ordinateur, note Kaufman, fonctionnent très différemment, et ce serait une erreur évidente de les comparer.

«L'analogie - le cerveau fonctionne comme un ordinateur - est très dangereuse et fait obstacle au progrès de l'IA», déclare Kaufman.

L'expert estime également que nous ne progresserons pas dans la compréhension de l'intelligence humaine si nous la considérons en termes technologiques.

«C'est une idée fausse que les algorithmes fonctionnent comme le cerveau humain. Les gens adorent les algorithmes et pensent donc que le cerveau peut être décrit avec leur aide. Je pense que c'est fondamentalement faux », ajoute Kaufman.

Si quelque chose ne va pas

Il existe de nombreux exemples où les algorithmes d'IA ne sont pas aussi intelligents que nous le pensions auparavant. Et l'un des plus tristement célèbres est l'algorithme d'IA Tay, créé par l'équipe de développement de systèmes d'IA de Microsoft et hors de contrôle l'année dernière. Il a fallu moins d'une journée pour transformer le bot en un véritable raciste. Les experts disent que cela peut arriver à n'importe quel système d'IA lorsqu'il est présenté avec de mauvais modèles. Dans le cas de Tay, elle est tombée sous l'influence de vocabulaire raciste et offensant. Et comme il était programmé pour «apprendre» et «refléter le comportement», il est rapidement devenu hors du contrôle des chercheurs.

De nombreuses recherches menées à Cornell et au Wyoming ont révélé qu'il est très facile de tromper les algorithmes formés pour identifier les images numériques. Ils ont découvert qu'une image qui ressemblait à des «absurdités brouillées» pour les gens était identifiée par l'algorithme comme une image d'un objet du quotidien comme un «autobus scolaire».

Selon un article publié dans le MIT Tech Review décrivant ce projet, il n'est pas tout à fait clair pourquoi l'algorithme peut être trompé comme l'ont fait les chercheurs. Ce qui a été découvert, c'est que les gens ont appris à reconnaître ce qui se trouve devant eux - soit une image autosuffisante, soit une sorte d'image incompréhensible. Les algorithmes, à leur tour, analysant les pixels, sont plus faciles à manipuler et à tromper.

Quant aux voitures autonomes, tout s'avère beaucoup plus compliqué. Une personne comprend certaines choses lorsqu'elle se prépare à faire face à certaines situations. Il sera très difficile d'apprendre à une machine à faire cela. Un grand article publié dans l'un des blogs automobiles par Rodney Brooks en janvier de cette année cite plusieurs exemples de telles situations, dont un décrivant une voiture autonome s'approchant d'un panneau d'arrêt situé à côté d'un passage pour piétons dans la ville. au tout début de laquelle un adulte et un enfant se tiennent debout et communiquent.

L'algorithme sera très probablement réglé pour attendre que les piétons traversent la route. Mais que se passerait-il si ces piétons n'avaient même pas en tête de traverser la route, car ils sont debout et attendent, disons, un bus scolaire? Dans ce cas, un conducteur humain pourrait klaxonner des piétons, qui pourraient lui faire signe en réponse, l'informant qu'il pourrait passer. Un véhicule sans pilote dans une telle situation peut simplement rester coincé, attendant sans fin que les gens traversent la route, car l'algorithme ne comprend pas ces signaux humains uniques, écrit Brooks.

Chacun de ces exemples nous montre jusqu'où nous devons encore avancer dans le développement d'algorithmes d'intelligence artificielle. La question de savoir dans quelle mesure les développeurs d'IA généralisés peuvent réussir reste une question. Il y a des choses auxquelles une personne peut facilement faire face, mais ce sera une vraie torture d'apprendre l'algorithme. Pourquoi? Parce que nous, les humains, ne sommes pas limités dans notre apprentissage à un ensemble de tâches spécifiques.

Nikolay Khizhnyak

Recommandé: