La Nouvelle Technologie D'IBM A Permis D'accélérer La Formation En IA De 4 Fois - - Vue Alternative

La Nouvelle Technologie D'IBM A Permis D'accélérer La Formation En IA De 4 Fois - - Vue Alternative
La Nouvelle Technologie D'IBM A Permis D'accélérer La Formation En IA De 4 Fois - - Vue Alternative

Vidéo: La Nouvelle Technologie D'IBM A Permis D'accélérer La Formation En IA De 4 Fois - - Vue Alternative

Vidéo: La Nouvelle Technologie D'IBM A Permis D'accélérer La Formation En IA De 4 Fois - - Vue Alternative
Vidéo: 4. Identités numériques: FRE 2024, Mai
Anonim

L'efficacité de calcul de l'intelligence artificielle est comme une épée à double tranchant. D'une part, il doit apprendre assez rapidement, mais plus le réseau de neurones "accélère", plus il consomme d'énergie. Cela signifie qu'il peut devenir tout simplement non rentable. Cependant, un moyen de sortir de la situation peut être donné par IBM, qui a démontré de nouvelles méthodes d'enseignement de l'IA, qui lui permettront d'apprendre plusieurs fois plus vite avec le même niveau de ressources et de coûts énergétiques.

Pour atteindre ces résultats, IBM a dû abandonner les méthodes de calcul utilisant des techniques 32 bits et 16 bits, développant une technique 8 bits, ainsi qu'une nouvelle puce pour travailler avec elle.

Tous les développements IBM ont été présentés au NeurIPS 2018 à Montréal. Les ingénieurs de l'entreprise ont évoqué deux développements. Le premier est appelé «apprentissage automatique en profondeur des réseaux de neurones utilisant des nombres à virgule flottante 8 bits». Dans ce document, ils décrivent comment ils ont réussi à réduire la précision arithmétique des applications de 32 bits à 16 bits de cette manière et à les enregistrer sur un modèle 8 bits. Les experts affirment que leur technique accélère de 2 à 4 fois le temps d'apprentissage des réseaux de neurones profonds par rapport aux systèmes 16 bits. Le deuxième développement est «la multiplication de 8 bits en mémoire avec une mémoire de transition de phase projetée». Ici, les experts dévoilent une méthode qui compense la faible fidélité des puces AI analogiques en leur permettant de consommer 33 fois moins d'énergie que les systèmes IA numériques comparables.

Vladimir Kuznetsov