Cinq saisons d'intelligence artificielle. Il bat une personne en mille morceaux en Go, prend le contrôle de sa voiture et le remplace au travail, et en même temps peut améliorer l'efficacité de la médecine. Sa longue histoire remonte à 1958 avec une énorme machine qui pouvait distinguer la droite et la gauche.
dix. Puis 2: 0. Et 3: 0. En mars 2016, la réunion finale s'est tenue à l'hôtel Four Seasons de Séoul, après quoi il n'y avait plus l'ombre d'un doute: le champion coréen de go Lee Sedol a perdu 4: 1 face à un ordinateur exécutant le programme AlphaGo développé par une filiale de Google. "Deepmind". Pour la première fois dans l'histoire, le mécanisme de «l'apprentissage automatique» et des «réseaux de neurones artificiels» a complètement dépassé le cerveau humain dans ce jeu, considéré comme plus difficile à simuler que les échecs. De nombreux experts soulignent qu'ils n'attendaient un tel résultat que dans quelques années.
Pour un public plus large, c'était la preuve de la puissance de la nouvelle technologie de «deep learning», qui est désormais au cœur des assistants vocaux, des voitures autonomes, de la reconnaissance faciale, de la traduction automatique, et facilite également le diagnostic médical …
L'intérêt pour les technologies d'apprentissage automatique, qui est manifesté par les entreprises américaines et chinoises dans le domaine des hautes technologies (Google, Amazon, Facebook, Microsoft, Baidu, Tensent), couvre l'ensemble de la planète et saute de plus en plus en-têtes scientifiques de journaux dans des documents économiques, analytiques et sociaux. Le fait est que l'intelligence artificielle promet non seulement de grands changements dans l'économie, mais suscite également des réflexions sur les nouvelles armes destructrices, la surveillance générale des citoyens, le remplacement des employés par des robots, les problèmes éthiques …
Mais d'où vient la révolution technologique de l'IA? Son histoire a assez de hauts et de bas. Elle s'est appuyée sur les réalisations des neurosciences et de l'informatique (comme vous pouvez le deviner d'après le nom), ainsi que, étonnamment, de la physique. Son parcours a traversé la France, les États-Unis, le Japon, la Suisse et l'URSS. Dans ce domaine, diverses écoles scientifiques se sont heurtées. Ils ont gagné un jour et ont perdu le lendemain. Il a fallu que tout le monde fasse preuve de patience, de persévérance et de volonté de prendre des risques. Il y a deux hivers et trois sources dans cette histoire.
Machine consciente de soi
Tout a très bien commencé. «L'armée américaine a parlé de l'idée d'une machine qui peut marcher, parler, voir, écrire, se reproduire et prendre conscience d'elle-même», écrivait le New York Times le 8 juillet 1958. Cet article d'une colonne décrit le Perceptron, qui a été créé par le psychologue américain Frank Rosenblatt dans les laboratoires de l'Université Cornell. Cette machine de 2 millions de dollars à l'époque avait à peu près la taille de deux ou trois réfrigérateurs et était tressée avec de nombreux fils. Lors d'une manifestation devant la presse américaine, le Perceptron a déterminé si un carré dessiné sur une feuille était à droite ou à gauche. Le scientifique a promis qu'avec un investissement de 100 000 dollars supplémentaires, sa machine serait capable de lire et d'écrire dans un an. En fait, cela a pris plus de 30 ans …
Vidéo promotionelle:
Quoi qu'il en soit, l'essentiel de ce projet était la source d'inspiration, qui est restée inchangée jusqu'à AlphaGo et ses «parents». Le psychologue Frank Rosenblatt est impliqué dans les concepts de cybernétique et d'intelligence artificielle depuis plus d'une décennie. Incidemment, il a développé son Perceptron avec l'aide de deux autres psychologues nord-américains: Warren McCulloch et Donald Hebb. Le premier a publié en 1943 un article conjoint avec Walter Pitts (Walter Pitts) avec une proposition de créer des neurones «artificiels», qui devraient partir du naturel et avoir des propriétés mathématiques. Le second a introduit des règles en 1949 pour permettre aux neurones artificiels d'apprendre par essais et erreurs, comme le fait le cerveau.
Le pont entre la biologie et les mathématiques était une initiative audacieuse. Une unité de comptage (neurone) peut être active (1) ou inactive (0) selon les stimuli provenant d'autres formations artificielles avec lesquelles elle est connectée, formant un réseau complexe et dynamique. Plus précisément, chaque neurone reçoit un certain ensemble de symboles et le compare à un certain seuil. Si le seuil est dépassé, la valeur est 1, sinon elle est 0. Les auteurs ont montré que leur système associé peut effectuer des opérations logiques telles que "et" et "ou" … et ainsi effectuer n'importe quel calcul. En théorie.
Cette approche innovante des calculs a conduit à la première querelle de notre histoire. Les deux concepts se sont réunis dans une confrontation irréconciliable qui se poursuit encore aujourd'hui. D'un côté, il y a des partisans des réseaux de neurones, et de l'autre, des partisans des ordinateurs «classiques». Ces derniers reposent sur trois principes: les calculs sont majoritairement séquentiels, la mémoire et les calculs sont fournis avec des composants clairement définis, toute valeur intermédiaire doit être égale à 0 ou 1. Pour les premiers, tout est différent: le réseau fournit à la fois mémoire et calculs, il n'y a pas de contrôle centralisé, et les valeurs intermédiaires sont autorisées.
Le "Perceptron" a également la capacité d'apprendre, par exemple, à reconnaître un motif ou à classer des signaux. C'est ainsi que le tireur corrige la vue. Si la balle va vers la droite, elle déplace le canon vers la gauche. Au niveau des neurones artificiels, cela signifie affaiblir ceux qui tirent vers la droite, au profit de ceux qui tirent vers la gauche, et vous permettre d'atteindre la cible. Il ne reste plus qu'à créer cet enchevêtrement de neurones et à trouver un moyen de les connecter.
Quoi qu'il en soit, l'enthousiasme a considérablement diminué en 1968 avec la sortie du livre Perceptrons de Seymour Papert et Marvin Minsky. Dans celui-ci, ils ont montré que la structure des perceptrons ne permet de résoudre que les problèmes les plus simples. C'était le premier hiver de l'intelligence artificielle, dont le premier printemps, il faut l'avouer, n'a pas porté beaucoup de fruits. Et le vent ne soufflait de nulle part: Marvin Minsky était à l'origine de l'émergence du concept même d '«intelligence artificielle» en 1955.
L'IA et l'IA se heurtent
Le 31 août de la même année, elle et son collègue John McCarthy ont envoyé une douzaine de personnes les invitant à participer l'été prochain à un travail de deux mois sur le premier concept de l'intelligence artificielle au Dartmouth College. Warren McCulloch et Claude Shannon, le père de l'informatique et de la théorie des télécommunications, étaient présents. C'est lui qui a amené Minsky et McCarthy au laboratoire Bell, d'où sont sortis les transistors et les lasers. De plus, ce sont eux qui sont devenus l'un des centres du renouveau des réseaux de neurones dans les années 1980.
En parallèle, deux nouveaux mouvements se sont formés et l'Université de Stanford est devenue leur champ de bataille. D'une part, il y avait l'acronyme d'IA, «intelligence artificielle», dans une compréhension différente des réseaux de neurones, qui a été défendu par John McCarthy (il a quitté le Massachusetts Institute of Technology et a créé son laboratoire à Stanford). D'autre part, il y a l'interface utilisateur, «intelligence améliorée», reflétant la nouvelle approche de Douglas Engelbart. Il a été embauché en 1957 par le Stanford Research Institute (créé en 1946 par une institution indépendante qui interagissait avec le secteur privé).
Douglas Engelbart avait un chemin difficile derrière lui. Il était technicien et s'est engagé dans le radar pendant la Seconde Guerre mondiale, mais a ensuite repris ses études et soutenu sa thèse. Avant de rejoindre Stanford, il a même créé sa propre entreprise, mais cela n'a duré que deux ans. Dans un nouvel endroit, il a commencé à mettre en œuvre sa vision de l'amélioration des capacités humaines. Il a déclaré qu'il avait une idée claire de la façon dont «les collègues sont assis dans des pièces différentes à des postes de travail similaires qui sont liés au même système d'information et peuvent interagir étroitement et échanger des données», explique le sociologue Thierry Bardini.
Cette vision a été mise en pratique en décembre 1968, dix ans après l'introduction de Perceptron, lors d'une démonstration du système oNLine avec un éditeur de texte à l'écran, des hyperliens vers des documents, des graphiques et une souris. Douglas Engelbart était un visionnaire, mais il regardait probablement trop loin dans le futur pour se faire vraiment connaître.
Janvier 1984, le premier Macintosh
John McCarthy, à son tour, a qualifié ce système inutilement de «dictatorial» parce qu'il imposait une approche particulière de la structuration du texte. Ce brave scientifique, qui, comme Engelbart, était financé par l'armée américaine, a présenté son propre concept symbolique de l'intelligence artificielle. Pour cela, il s'est appuyé sur LISP, l'un des premiers langages de programmation qu'il a développé. L'idée était d'imiter le processus de pensée avec une chaîne logique de règles et de symboles et de former ainsi une pensée ou au moins une fonction cognitive. Cela n'a rien à voir avec des réseaux de neurones indépendants capables d'apprendre mais incapables d'expliquer leur choix. Hormis le robot-main qui a versé le punch, qui a amusé tout le monde en renversant les verres, la nouvelle approche a été assez réussie en termes de ce que l'on a longtemps appelé «systèmes experts». Des chaînes de règles ont permis aux machines d'analyser des données dans une grande variété de domaines, que ce soit la finance, la médecine, la fabrication, la traduction.
En 1970, un collègue de Minsky a fait la déclaration suivante au magazine Life: «Dans huit ans, nous aurons une machine avec l'intelligence d'une personne moyenne. Autrement dit, une machine qui peut lire Shakespeare, changer l'huile d'une voiture, plaisanter, se battre."
La victoire de l'approche symbolique
Apparemment, l'intelligence artificielle n'aime pas la prophétie. En 1973, un rapport a été publié en Angleterre qui a refroidi les têtes brûlantes: «La majorité des scientifiques travaillant sur l'intelligence artificielle et les domaines connexes admettent qu'ils sont déçus de ce qui a été réalisé au cours des 25 dernières années. (…) Dans aucun des camps, les découvertes faites jusqu'ici n'ont donné les résultats promis."
Les années suivantes ont confirmé ce diagnostic. Dans les années 1980, les entreprises d'IA ont fait faillite ou ont changé de domaine. Le bâtiment du laboratoire McCarthy a été démoli en 1986.
Douglas Engelbart a gagné. En janvier 1984, Apple a sorti son premier Macintosh, mettant en pratique la plupart des idées de l'ingénieur.
Ainsi, la victoire n'est pas allée à l'intelligence artificielle, dont Minsky et McCarthy rêvaient, mais à l'intellect amélioré d'Engelbart. Tout cela a conduit au développement d'ordinateurs personnels efficaces. Et l'intelligence artificielle est dans une impasse. Le symbolisme s'est avéré plus fort que les réseaux de neurones. Néanmoins, notre histoire ne s'arrête pas là, et ils vont encore se déclarer.
David Larousserie