Quand L'intelligence Artificielle Commencera-t-elle à Comprendre Les émotions Humaines? - Vue Alternative

Table des matières:

Quand L'intelligence Artificielle Commencera-t-elle à Comprendre Les émotions Humaines? - Vue Alternative
Quand L'intelligence Artificielle Commencera-t-elle à Comprendre Les émotions Humaines? - Vue Alternative

Vidéo: Quand L'intelligence Artificielle Commencera-t-elle à Comprendre Les émotions Humaines? - Vue Alternative

Vidéo: Quand L'intelligence Artificielle Commencera-t-elle à Comprendre Les émotions Humaines? - Vue Alternative
Vidéo: La prochaine révolution de l'Intelligence artificielle - Yann LeCun, à l'USI 2024, Avril
Anonim

Feriez-vous confiance à un robot si c'était votre médecin? Les machines intelligentes émotionnelles peuvent ne pas être aussi loin de nous qu'elles le paraissent. Au cours des dernières décennies, l'intelligence artificielle a considérablement augmenté la capacité de lire les réponses émotionnelles des gens.

Mais lire les émotions ne signifie pas les comprendre. Si l'IA elle-même ne peut pas les expérimenter, pourra-t-elle jamais nous comprendre pleinement? Et sinon, risque-t-on d'attribuer des propriétés à des robots qu'ils ne possèdent pas?

La dernière génération d'intelligence artificielle nous remercie déjà pour la croissance de la quantité de données dont les ordinateurs peuvent tirer des leçons, ainsi que pour l'augmentation de la puissance de traitement. Ces machines sont progressivement améliorées dans des domaines que nous donnions habituellement exclusivement aux gens pour exécution.

Image
Image

Aujourd'hui, l'intelligence artificielle peut, entre autres, reconnaître des visages, transformer des croquis de visages en photographies, reconnaître la parole et jouer au Go.

Identifier les criminels

Il n'y a pas si longtemps, les scientifiques ont développé une intelligence artificielle qui peut dire si une personne est un criminel simplement en regardant les traits de son visage. Le système a été évalué à l'aide d'une base de données de photographies chinoises et les résultats étaient tout simplement stupéfiants. L'IA a classé à tort des innocents comme des criminels dans seulement 6% des cas et a réussi à identifier 83% des criminels. La précision globale était de près de 90%.

Vidéo promotionelle:

Ce système est basé sur une approche appelée «apprentissage en profondeur» qui a fait ses preuves dans, par exemple, la reconnaissance faciale. L'apprentissage profond combiné à un «modèle de rotation du visage» a permis à l'intelligence artificielle de déterminer si deux photographies du visage d'une même personne, même si l'éclairage ou l'angle change.

L'apprentissage profond crée un «réseau neuronal» basé sur l'approximation du cerveau humain. Il se compose de centaines de milliers de neurones organisés en différentes couches. Chaque calque prend les données d'entrée, telles qu'une image de visage, à un niveau d'abstraction supérieur, tel qu'un ensemble d'arêtes dans des directions et des emplacements spécifiques. Et il met automatiquement en évidence les fonctionnalités les plus pertinentes pour l'exécution d'une tâche particulière.

Compte tenu du succès de l'apprentissage en profondeur, il n'est pas surprenant que les réseaux de neurones artificiels puissent distinguer les criminels des innocents - s'il y a vraiment des traits du visage qui diffèrent entre eux. L'étude a permis de distinguer trois caractéristiques. L'un est l'angle entre le bout du nez et les coins de la bouche, qui, en moyenne, est de 19,6% de moins pour les criminels. La courbure de la lèvre supérieure est également en moyenne 23,4% plus grande pour les criminels, et la distance entre les coins intérieurs des yeux est en moyenne 5,6% plus étroite.

À première vue, cette analyse suggère que l'idée désuète selon laquelle les criminels peuvent être identifiés par des attributs physiques n'est pas si fausse. Cependant, ce n'est pas toute l'histoire. Fait remarquable, les deux caractéristiques les plus pertinentes sont associées aux lèvres, et ce sont nos caractéristiques faciales les plus expressives. Les photographies des criminels utilisées dans l'étude nécessitent une expression faciale neutre, mais l'IA a quand même réussi à trouver des émotions cachées dans ces photographies. Peut-être si insignifiant que les gens ne peuvent pas les détecter.

Image
Image

Il est difficile de résister à la tentation de regarder vous-même des exemples de photos - les voici. Le document est toujours en cours d'examen. Un examen attentif montre un léger sourire sur les photographies d'innocents. Mais il n'y a pas beaucoup de photographies dans les échantillons, il est donc impossible de tirer des conclusions sur l'ensemble de la base de données.

La puissance de l'informatique affective

Ce n'est pas la première fois qu'un ordinateur est capable de reconnaître les émotions humaines. Le soi-disant domaine de «l'informatique affective» ou de «l'informatique émotionnelle» existe depuis longtemps. On pense que si nous voulons vivre confortablement et interagir avec des robots, ces machines doivent être capables de comprendre et de répondre de manière adéquate aux émotions humaines. Les possibilités dans ce domaine sont assez vastes.

Par exemple, les chercheurs ont utilisé l'analyse faciale pour identifier les étudiants ayant des difficultés avec les leçons d'enseignement informatisées. L'intelligence artificielle a appris à reconnaître différents niveaux d'engagement et de frustration afin que le système puisse comprendre quand les étudiants trouvent des emplois trop faciles ou trop complexes. Cette technologie peut être utile pour améliorer l'expérience d'apprentissage sur les plateformes en ligne.

Sony tente de développer un robot capable de créer des liens émotionnels avec les gens. Il n'est pas tout à fait clair comment elle allait y parvenir ou ce que le robot fera exactement. Cependant, la société affirme qu'elle essaie «d'intégrer du matériel et des services pour offrir une expérience émotionnellement comparable».

L'intelligence artificielle émotionnelle aura un certain nombre d'avantages potentiels, que ce soit le rôle de l'interlocuteur ou de l'exécuteur testamentaire - elle pourra à la fois identifier le criminel et parler du traitement.

Il existe également des problèmes et des risques éthiques. Serait-il juste de laisser un patient atteint de démence compter sur un compagnon d'IA et lui dire qu'il est émotionnellement vivant alors qu'il ne l'est pas? Pouvez-vous mettre une personne derrière les barreaux si l'IA dit qu'elle est coupable? Bien sûr que non. L'intelligence artificielle, tout d'abord, ne sera pas un juge, mais un enquêteur, identifiant les personnes «suspectes», mais certainement non coupables.

Des choses subjectives comme les émotions et les sentiments sont difficiles à expliquer à l'intelligence artificielle, en partie parce que l'IA n'a pas accès à des données suffisamment bonnes pour les analyser objectivement. L'IA comprendra-t-elle jamais le sarcasme? Une phrase peut être sarcastique dans un contexte et complètement différente dans un autre.

Dans tous les cas, la quantité de données et la puissance de traitement continuent d'augmenter. À quelques exceptions près, l'IA pourrait bien apprendre à reconnaître différents types d'émotions au cours des prochaines décennies. Mais pourrait-il jamais les expérimenter lui-même? C'est un point discutable.

ILYA KHEL

Recommandé: