Les Scientifiques Japonais Ont Appris à L'ordinateur à Lire Dans Les Pensées. Exemples Vidéo - Vue Alternative

Les Scientifiques Japonais Ont Appris à L'ordinateur à Lire Dans Les Pensées. Exemples Vidéo - Vue Alternative
Les Scientifiques Japonais Ont Appris à L'ordinateur à Lire Dans Les Pensées. Exemples Vidéo - Vue Alternative

Vidéo: Les Scientifiques Japonais Ont Appris à L'ordinateur à Lire Dans Les Pensées. Exemples Vidéo - Vue Alternative

Vidéo: Les Scientifiques Japonais Ont Appris à L'ordinateur à Lire Dans Les Pensées. Exemples Vidéo - Vue Alternative
Vidéo: Voici comment lire dans la pensée des gens #Shorts 2024, Mai
Anonim

Avec le développement de systèmes de reconnaissance de préférences et de publicités ciblées, les offres de visionnage de vidéos et d'amis sur les réseaux sociaux donnent à l'utilisateur l'illusion que l'ordinateur lit ses pensées. Cependant, pour le meilleur ou pour le pire, nous nous dirigeons vers des ordinateurs et des systèmes qui lisent réellement nos pensées. Une nouvelle étude réalisée par des développeurs japonais est, sans exagération, une étape absolument décisive dans cette direction.

Une équipe de l'Université de Kyoto a décidé d'utiliser un réseau neuronal virtuel pour essayer de lire et d'interpréter des pensées dans un réseau neuronal vivant, dans le cerveau humain. Bien que cela puisse paraître assez fou, l'expérience n'est pas fondamentalement nouvelle et les Japonais ne sont pas le premier groupe à travailler dans ce sens. La différence entre l'équipe de Kyoto et ses prédécesseurs est que les techniques antérieures ont reconstruit des images à partir des pixels qui composent l'image et des formes géométriques de base. Cependant, une nouvelle technologie, appelée «reconstruction d'image profonde», va au-delà des pixels binaires et donne aux chercheurs la possibilité de décoder des images avec de multiples couches de couleur et de structure.

«Notre cerveau traite les informations visuelles en extrayant hiérarchiquement différents niveaux de traits ou composants de complexités différentes», a déclaré Yukiyasu Kamitani, l'un des scientifiques impliqués dans l'étude, dans une interview. "Ces réseaux neuronaux ou modèles d'IA peuvent être utilisés comme une approximation de la structure hiérarchique du cerveau humain."

L'étude a duré 10 mois. Trois volontaires expérimentaux, pour des durées différentes, ont examiné des images de trois catégories différentes: des objets naturels (tels que des animaux ou des personnes), des formes géométriques artificielles et des lettres de l'alphabet.

Image
Image

Dans ce cas, l'activité du cerveau a été enregistrée lors de la visualisation des images. L'image a ensuite été supprimée et le sujet a été invité à réfléchir à l'image qu'il venait de regarder. Dans le même temps, l'activité cérébrale a de nouveau été enregistrée et les données ont été comparées aux données précédentes, après quoi les résultats ont été saisis dans un réseau neuronal virtuel, qui les a ensuite utilisés pour interpréter l'activité cérébrale comme certaines pensées.

Chez l'homme (et même chez tous les mammifères), le cortex visuel est situé à l'arrière du cerveau, dans le lobe occipital, qui est au-dessus du cervelet. L'activité dans le cortex visuel a été mesurée à l'aide de l'imagerie par résonance magnétique fonctionnelle (IRMf), transformant l'image résultante en caractéristiques hiérarchiques d'un réseau neuronal virtuel.

À partir d'une image aléatoire, le réseau généré optimise les valeurs de pixels de cette image plusieurs fois. En conséquence, les fonctions du réseau neuronal de l'image d'entrée sont similaires à celles décodées à partir de l'activité cérébrale.

Vidéo promotionelle:

Il est important de noter que le modèle expérimental supposait l'utilisation non seulement d'images naturelles (personnes ou nature), mais supposait également la génération et la reconnaissance de structures artificielles et de formes géométriques:

Comme vous pouvez le voir sur la vidéo, il est beaucoup plus difficile pour le système de décoder l'image dans une situation où une personne ne regarde pas l'image, mais ne pense qu'à ce qu'elle a vu. Cependant, cela, apparemment, est absolument naturel: tous les cerveaux ne se souviennent pas de chaque détail de l'image qui vient d'être vue, par exemple une page d'un livre. Nos souvenirs sont généralement très flous et flous.

À ce stade de l'étude, les images reconstruites à partir de l'activité cérébrale ne conservent qu'une certaine similitude avec les images originales vues par les participants à l'expérience, elles ressemblent principalement à des amas de pixels très peu détaillés. Cependant, ce n'est que le début du chemin et avec le temps, la précision de la reconnaissance sera de plus en plus grande, même si même maintenant, nous pouvons dire avec confiance à quel objet le sujet pense.

Tout cela ouvre des perspectives incroyables aux développeurs. Imaginez une «modélisation instantanée» lorsque vous imaginez simplement un objet dans votre tête - un concept artistique ou un détail d'un mécanisme - et son ordinateur immédiatement, sans appuyer sur aucun bouton, crée automatiquement l'objet tridimensionnel nécessaire.

Image
Image

Ou l'IA pourrait-elle aller beaucoup plus loin, enregistrer votre activité cérébrale pendant que vous dormez, puis recréer tous vos rêves dans un monde 3D?

Il existe d'innombrables applications de ce développement, donc l'équipe japonaise travaille dur sur tout. Cependant, il est dans tous nos intérêts communs que la lecture dans les pensées progresse progressivement et avec suffisamment de précaution, car la technologie comporte de nombreux dangers.

Recommandé: