La Puce MIT A Réduit La Consommation électrique Du Réseau Neuronal De 95% - Vue Alternative

La Puce MIT A Réduit La Consommation électrique Du Réseau Neuronal De 95% - Vue Alternative
La Puce MIT A Réduit La Consommation électrique Du Réseau Neuronal De 95% - Vue Alternative

Vidéo: La Puce MIT A Réduit La Consommation électrique Du Réseau Neuronal De 95% - Vue Alternative

Vidéo: La Puce MIT A Réduit La Consommation électrique Du Réseau Neuronal De 95% - Vue Alternative
Vidéo: Les mardis du cloud - le FPGA 2024, Mars
Anonim

Les réseaux de neurones sont des éléments puissants, mais très voraces. Les ingénieurs du Massachusetts Institute of Technology (MIT) ont réussi à développer une nouvelle puce qui réduit la consommation électrique du réseau neuronal de 95%, ce qui pourrait en théorie leur permettre de fonctionner même sur des appareils mobiles équipés de batteries. Les smartphones deviennent de plus en plus intelligents ces jours-ci, offrant davantage de services basés sur l'IA, tels que des assistants virtuels et des traductions en temps réel. Mais généralement, les réseaux de neurones traitent les données de ces services dans le cloud, et les smartphones ne transmettent que des données dans les deux sens.

Ce n'est pas idéal car cela nécessite un canal de communication épais et suppose que des données sensibles sont transmises et stockées hors de la portée de l'utilisateur. Mais les quantités colossales d'énergie nécessaires pour alimenter les réseaux de neurones alimentés par des GPU ne peuvent pas être fournies dans un appareil alimenté par une petite batterie.

Les ingénieurs du MIT ont développé une puce capable de réduire cette consommation d'énergie de 95%. La puce réduit considérablement le besoin de transférer des données dans les deux sens entre la mémoire de la puce et les processeurs.

Les réseaux de neurones sont constitués de milliers de neurones artificiels interconnectés disposés en couches. Chaque neurone reçoit l'entrée de plusieurs neurones dans la couche sous-jacente, et si l'entrée combinée dépasse un certain seuil, il transmet le résultat à plusieurs neurones ci-dessus. La force de la connexion entre les neurones est déterminée par le poids qui est établi pendant le processus d'entraînement.

Cela signifie que pour chaque neurone, la puce doit extraire l'entrée pour une connexion spécifique et le poids de la connexion de la mémoire, les multiplier, stocker le résultat, puis répéter le processus pour chaque entrée. Beaucoup de données voyagent ici et là, et beaucoup d'énergie est gaspillée.

La nouvelle puce MIT élimine cela en calculant toutes les entrées en parallèle dans la mémoire à l'aide de circuits analogiques. Cela réduit considérablement la quantité de données à dépasser et se traduit par des économies d'énergie significatives.

Cette approche nécessite que le poids des connexions soit binaire, pas une plage, mais des travaux théoriques antérieurs ont montré que cela n'affecterait pas beaucoup la précision, et les scientifiques ont constaté que les résultats de la puce différaient de 2 à 3% de la version habituelle du réseau neuronal fonctionnant. sur un ordinateur standard.

Ce n'est pas la première fois que des scientifiques créent des puces qui traitent des processus en mémoire, réduisant la consommation d'énergie d'un réseau de neurones, mais c'est la première fois que cette approche est utilisée pour faire fonctionner un puissant réseau de neurones connu pour son traitement d'image.

Vidéo promotionelle:

«Les résultats montrent des spécifications impressionnantes pour la mise en œuvre économe en énergie des opérations de roulement dans une matrice de mémoire», a déclaré Dario Gil, vice-président de l'intelligence artificielle chez IBM.

"Cela ouvre définitivement des possibilités pour l'utilisation de réseaux neuronaux convolutifs plus sophistiqués pour classer les images et les vidéos sur l'Internet des objets à l'avenir."

Et cela n'est pas seulement intéressant pour les groupes de R&D. Le désir de mettre l'IA sur des appareils tels que les smartphones, les appareils ménagers et toutes sortes d'appareils IoT pousse de nombreux habitants de la Silicon Valley vers des puces à faible consommation.

Apple a déjà intégré son Neural Engine dans l'iPhone X pour alimenter, par exemple, la technologie de reconnaissance faciale, et Amazon développerait ses propres puces AI pour la prochaine génération d'assistants numériques Echo.

Les grandes entreprises et les fabricants de puces s'appuient également de plus en plus sur l'apprentissage automatique, ce qui les oblige à rendre leurs appareils encore plus écoénergétiques. Plus tôt cette année, ARM a lancé deux nouvelles puces: le processeur Arm Machine Learning, qui gère les tâches générales de l'IA, de la traduction à la reconnaissance faciale, et le processeur Arm Object Detection, qui, par exemple, détecte les visages dans les images.

La dernière puce mobile de Qualcomm, le Snapdragon 845, dispose d'un GPU et est fortement pilotée par l'IA. La société a également dévoilé le Snapdragon 820E, qui devrait fonctionner dans les drones, les robots et les appareils industriels.

Pour l'avenir, IBM et Intel développent des puces neuromorphes avec une architecture inspirée du cerveau humain et une efficacité énergétique incroyable. Cela pourrait théoriquement permettre à TrueNorth (IBM) et Loihi (Intel) de réaliser un apprentissage automatique puissant en utilisant seulement une fraction de la puissance des puces conventionnelles, mais ces projets sont encore très expérimentaux.

Il sera très difficile de forcer les puces qui donnent vie aux réseaux de neurones à économiser l'énergie de la batterie. Mais au rythme actuel de l'innovation, ce «très difficile» semble tout à fait réalisable.

Ilya Khel