Les Mathématiciens Ont Créé Un Problème Qui Ne Peut être Résolu Par La Machine - Vue Alternative

Les Mathématiciens Ont Créé Un Problème Qui Ne Peut être Résolu Par La Machine - Vue Alternative
Les Mathématiciens Ont Créé Un Problème Qui Ne Peut être Résolu Par La Machine - Vue Alternative

Vidéo: Les Mathématiciens Ont Créé Un Problème Qui Ne Peut être Résolu Par La Machine - Vue Alternative

Vidéo: Les Mathématiciens Ont Créé Un Problème Qui Ne Peut être Résolu Par La Machine - Vue Alternative
Vidéo: LES 7 PROBLÈMES DU MILLÉNAIRE (1 000 000 $) 2024, Avril
Anonim

Un groupe de mathématiciens a fait valoir que les mathématiques non démontrables sont un obstacle insurmontable aux algorithmes d'apprentissage automatique. Maintenant, ils ont pu le prouver dans la pratique.

Tout dans le monde n'est pas connaissable. Au moins, cela s'applique à l'intelligence artificielle et aux algorithmes d'apprentissage automatique. À première vue, une telle déclaration à notre époque de progrès peut sembler une véritable hérésie - mais, hélas, c'est le cas. Un groupe international de mathématiciens et de chercheurs en IA a découvert que, malgré le potentiel apparemment illimité de l'apprentissage automatique, même les algorithmes les plus avancés sont liés par des contraintes mathématiques.

«Les avantages des mathématiques reposent parfois sur le fait que … en termes simples, tout n'est pas prouvable», écrivent les chercheurs dirigés par l'informaticienne Shai Ben-David de l'Université de Waterloo. Ils affirment que l'apprentissage automatique partage ce destin.

Comment en sont-ils arrivés à cette conclusion? Les contraintes mathématiques sont souvent associées au célèbre mathématicien autrichien Kurt Gödel, qui dans les années 1930 a développé des théorèmes d'incomplétude - deux hypothèses qui montrent les limites de l'arithmétique formelle (et, par conséquent, tout système formel qui utilise les concepts de cette arithmétique: 0 et 1, addition et multiplication et nombres naturels). De nouvelles recherches ont seulement prouvé que l'apprentissage automatique est enfermé dans le même cadre.

À l'heure actuelle, l'IA est littéralement limitée par des mathématiques non démontrables. En d'autres termes, l'intelligence artificielle ne peut pas résoudre un problème dont l'algorithme ne fournit pas de solution «vraie» ou «fausse». Le mathématicien Amir Yehudayov du Technion-Israel Institute of Technology, dans une interview avec la revue Nature, a admis que c'était une surprise pour les scientifiques. La recherche a été construite autour d'un site Web: l'algorithme était censé montrer des publicités ciblées aux visiteurs qui visitent la page le plus souvent - sans savoir quels visiteurs la visiteraient à l'avance. Il s'agit d'un problème dit d'estimation du maximum (EMX).

Selon les chercheurs, les racines du problème mathématique peuvent résider dans la structure de l'algorithme d'apprentissage connu sous le nom d '«apprentissage probabiliste approximativement correct» ou PAC. Il est également très similaire au paradoxe mathématique appelé l'hypothèse du continuum. Comme les théorèmes de complétude, cette hypothèse est liée aux mathématiques, qui ne peuvent être prouvées dans le cadre d'un système vrai / faux. En théorie, même pour l'algorithme le plus parfait, il s'agit d'une impasse dont il ne peut pas sortir. Les mathématiciens reconnaissent que l'improvabilité est un fardeau que les machines devront désormais supporter. Lev Reizin, qui n'a pas participé à l'étude, note que ces mesures "peuvent être en mesure d'enseigner l'humilité de l'IA, même si elle continue de révolutionner le monde qui nous entoure".

Vasily Makarov

Recommandé: