La Nouvelle Intelligence Artificielle A Appris à établir Des Relations Causales - Vue Alternative

La Nouvelle Intelligence Artificielle A Appris à établir Des Relations Causales - Vue Alternative
La Nouvelle Intelligence Artificielle A Appris à établir Des Relations Causales - Vue Alternative

Vidéo: La Nouvelle Intelligence Artificielle A Appris à établir Des Relations Causales - Vue Alternative

Vidéo: La Nouvelle Intelligence Artificielle A Appris à établir Des Relations Causales - Vue Alternative
Vidéo: La prochaine révolution de l'Intelligence artificielle - Yann LeCun, à l'USI 2024, Mars
Anonim

L'intelligence artificielle hybride (ci-après dénommée IA) et un nouvel ensemble de données et de références pour évaluer les capacités des algorithmes d'IA à raisonner sur les actions contenues dans les informations vidéo ont été présentés par des chercheurs d'IBM, du MIT, de Harvard et de DeepMind lors de la conférence ICLR 2020, rapporte TheNextweb le 17 mai.

Le nouvel ensemble de données et l'environnement de recherche présenté à l'ICLR 2020 s'appelle CoLlision Events for Video REpresentation and Reasoning ou CLEVRER. Ils sont basés sur CLEVR, un ensemble de questions et réponses visuelles développé à l'Université de Stanford en 2017. CLEVR est un ensemble de tâches représentant des images fixes d'objets solides. L'agent IA doit être capable d'analyser la scène et de répondre à plusieurs questions sur le nombre d'objets, leurs attributs et leurs relations spatiales.

Pour résoudre une tâche difficile de l'IA classique, les chercheurs ont présenté un modèle de pensée dynamique neuro-symbolique, une combinaison de réseaux de neurones et d'intelligence artificielle symbolique.

Les résultats ont montré que l'incorporation de réseaux de neurones et de programmes symboliques dans un seul modèle d'IA peut combiner leurs forces et surmonter leurs faiblesses. «La représentation symbolique fournit un cadre commun puissant pour la vision, le langage, la dynamique et la causalité», notent les auteurs, ajoutant que les programmes symboliques permettent au modèle de «capturer explicitement la compositionnalité qui sous-tend la structure causale de la vidéo et la logique de la question».

Les avantages de tels systèmes sont limités par des inconvénients inconditionnels. Les données utilisées pour entraîner le modèle nécessitent des annotations supplémentaires, qui peuvent être trop gourmandes en énergie et coûteuses dans les applications du monde réel.

Recommandé: