Libérez L'intelligence Artificielle: Openai, Le Plan Fou D'Elon Musk - Vue Alternative

Table des matières:

Libérez L'intelligence Artificielle: Openai, Le Plan Fou D'Elon Musk - Vue Alternative
Libérez L'intelligence Artificielle: Openai, Le Plan Fou D'Elon Musk - Vue Alternative

Vidéo: Libérez L'intelligence Artificielle: Openai, Le Plan Fou D'Elon Musk - Vue Alternative

Vidéo: Libérez L'intelligence Artificielle: Openai, Le Plan Fou D'Elon Musk - Vue Alternative
Vidéo: Pourquoi OpenAI a créé GPT-3 ? (une "super" intelligence artificielle) 2024, Octobre
Anonim

Les politiciens et les capitalistes ont une tradition du vendredi après-midi de diffuser beaucoup de nouvelles pour cacher les mauvaises nouvelles parmi eux. C'était donc un peu étrange qu'Elon Musk, fondateur de Tesla, un constructeur de voitures électriques, et Sam Altman, président du célèbre incubateur technologique Y Combinator, aient dévoilé leur nouvelle entreprise d'IA à la toute fin d'une conférence d'une semaine sur l'IA à Montréal en décembre dernier.

Il y avait une raison pour l'introduction d'OpenAI à une heure aussi tardive. Pas parce que personne ne regardait. Parce que tout le monde regardait. Lorsque certaines des entreprises les plus puissantes de la Silicon Valley ont senti que le vent soufflait, elles ont commencé à offrir d'énormes sommes d'argent aux nouveaux talents d'OpenAI AI pour garder ces génies chez eux. À la dernière minute, les propositions - certaines faites lors de la conférence elle-même - sont devenues si importantes que Musk et Altman ont dû retarder l'annonce de la nouvelle startup. «Les sommes ont atteint le bord de la folie», explique Wojciech Zaremba, un scientifique qui a rejoint OpenAI après des stages chez Google et Facebook et a été parmi ceux qui ont reçu des offres importantes à 23h00.

Image
Image

Combien de dollars est la frontière de la folie? Il y a deux ans, alors que le marché des dernières technologies d'apprentissage automatique commençait à se réchauffer, le vice-président de Microsoft Research, Peter Lee, a déclaré que le coût des meilleurs chercheurs en IA avait dépassé le coût d'un quart-arrière de la Ligue nationale de football - et c'est dans des circonstances normales, pas lorsque les plus grands entrepreneurs La Silicon Valley tente de débaucher les meilleurs talents. Zaremba dit que lorsque OpenAI s'est réuni, il s'est vu offrir deux à trois fois sa valeur marchande.

OpenAI n'a pas répondu à ces suggestions. Mais il a offert quelque chose de différent: la possibilité de faire des recherches axées uniquement sur l'avenir, plutôt que sur les produits et les bénéfices trimestriels, et finalement de partager la plupart - sinon la totalité - de la recherche entre ceux qui le désiraient. C'est vrai: Musk, Altman et l'entreprise ont décidé de donner ce qui pourrait être la technologie la plus transformatrice du 21e siècle et de la donner gratuitement.

Zaremba dit que les propositions au bord de la folie l'ont en fait rebuté - malgré l'énorme respect pour des entreprises comme Google et Facebook. Il a estimé que l'argent était canalisé pour empêcher la création d'OpenAI, ce qui renforçait encore son engagement envers une startup généreuse. «J'ai réalisé», dit Zaremba, «qu'OpenAI est le meilleur endroit pour moi.»

Ressentez-vous l'ironie au cœur de cette histoire? Alors que les plus grandes entreprises technologiques du monde essaient de retenir leurs chercheurs aussi fort que les équipes de la NFL tentent de conserver leurs quarts vedettes, les chercheurs eux-mêmes veulent simplement partager leurs idées. Dans le monde sophistiqué de la recherche sur l'IA, les esprits les plus brillants ne sont pas seulement motivés par le prochain cycle de produit ou par le profit, ou pas du tout obsédés par eux. Ils veulent améliorer l'IA, et il est impossible d'améliorer l'IA lorsque vous gardez vos derniers développements pour vous.

OpenAI a récemment publié le premier lot de logiciels d'IA, une boîte à outils pour créer des systèmes d'intelligence artificielle basés sur une technologie appelée apprentissage par renforcement, l'une des technologies clés qui ont conduit à la création d'AlphaGo, l'IA de Google qui a surpris le monde avec ses capacités. aller à des jeux. Avec cet ensemble d'outils, vous pouvez créer des systèmes qui ouvriront une nouvelle génération de robots, jouer à des jeux Atari et, oui, battre les champions du monde chez Go.

Vidéo promotionelle:

Mais les jouets ne sont que le début. OpenAI est une mission d'un milliard de dollars pour pousser l'IA aussi loin que possible. Dans la façon dont l'entreprise s'est réunie et quels sont ses projets, vous pouvez voir la prochaine nouvelle vague d'innovation. Nous ne savons pas encore si OpenAI sera le principal moteur de ces changements. Mais les forces derrière la création de cette startup plutôt inhabituelle montrent que la prochaine génération d'IA ne changera pas seulement la technologie, mais aussi la façon dont elle fonctionne.

L'intelligence artificielle est partout

La Silicon Valley a une passion pour l'exagération. Les déclarations audacieuses doivent toujours être accueillies avec un grain de sel. Mais dans le domaine de l'intelligence artificielle, des changements sont effectivement en cours. Au sein d'entreprises telles que Google et Facebook, les technologies d'apprentissage en profondeur aident déjà les services Internet à identifier les visages sur les photos, à reconnaître les commandes vocales sur les smartphones et à répondre aux recherches sur Internet. Et cette même technologie pourrait résoudre de nombreux autres problèmes à l'avenir. Cela peut aider les machines à apprendre à comprendre le langage naturel - que nous, les humains, sommes habitués à parler et à écrire. Cela peut aider à développer une nouvelle race de robots, permettre aux automates non seulement d'effectuer leurs tâches, mais aussi d'apprendre à la volée. Et certains pensent que cela donnera finalement aux machines quelque chose comme le bon sens - la capacité de penser vraiment comme une personne.

Et avec de telles promesses, une profonde anxiété est née. Musk et Altman craignent que si les humains peuvent créer des IA qui font de grandes choses, ils peuvent construire des IA qui font des choses terribles. Ils ne sont pas seuls dans leurs craintes. Bien que cela puisse sembler contre-intuitif, Musk et Altman estiment également que le meilleur moyen de lutter contre l'IA malveillante n'est pas de limiter l'accès à l'intelligence artificielle, mais de l'étendre. C'est cette aspiration qui conduit à une équipe de jeunes idéalistes intelligents.

OpenAI est apparu un soir l'été dernier dans une salle privée du Rosewood Hotel dans la Silicon Valley, un hôtel citadin haut de gamme qui se trouve littéralement au centre du monde du capital-risque. Elon Musk a déjeuné avec Ilya Sutskever, qui était alors chez Google Brain, une entreprise développant des réseaux de neurones profonds - des systèmes d'intelligence artificielle qui peuvent apprendre à effectuer des tâches en analysant d'énormes quantités de données numériques, y compris en reconnaissant des photos et en écrivant des e-mails, en apprenant de la correspondance. Suckever était l'un des principaux développeurs du projet.

Ilya Sutskever

Image
Image

Sam Altman, dont Y Combinator a aidé à façonner des entreprises comme Airbnb, Dropbox et Coinbase, a organisé la réunion, réunissant plusieurs chercheurs en IA et le jeune mais vétéran constructeur d'entreprise Greg Brockman, ancien directeur de la technologie chez Stripe, une autre société Y Combinateur. C'était un groupe éclectique. Mais tout le monde avait un objectif: créer un nouveau type de laboratoire d'IA qui pourrait fonctionner en dehors du contrôle non seulement de Google, mais de tout le monde. «La meilleure chose que je puisse imaginer comme un défi», dit Brockman, «est de faire évoluer l'humanité vers la création d'une véritable IA sur une voie sûre.»

Musk était là en raison de sa longue amitié avec Altman - et parce que l'IA est essentielle pour l'avenir de ses diverses entreprises et pour l'avenir dans son ensemble. Tesla a besoin de l'IA pour construire des voitures autonomes. SpaceX, une autre société de Musk, a besoin de l'IA pour emmener les gens dans l'espace et les garder sains et saufs là-bas. Mais Musk est également l'un des premiers (et des plus bruyants) à avertir qu'un jour l'humanité pourrait perdre le contrôle de systèmes suffisamment puissants pour apprendre par eux-mêmes.

Il y avait un problème: beaucoup de personnes suffisamment qualifiées pour résoudre tous ces problèmes travaillaient déjà chez Google (ainsi que Microsoft, Facebook, Baidu et Twitter). Et personne lors de ce dîner n'était absolument sûr que ces chercheurs pourraient être attirés dans une nouvelle startup, même si Musk et Altman étaient derrière. Et au moins un acteur clé était prêt à quitter le navire. «J'ai compris les risques», dit Suckever, «mais je savais aussi que ce serait intéressant d'essayer.»

Briser le cercle

Encouragé par des conversations avec Musk, Altman et d'autres à Rosewood, Brockman a rapidement décidé de construire le laboratoire qu'ils avaient tous à l'esprit. Avec un fort engagement envers le projet, il a fait venir Yoshua Bengio, un scientifique de l'Université de Montréal et l'un des pères fondateurs du mouvement d'apprentissage profond. Deux autres pionniers de l'industrie - Jeff Hinton et Jan Lecun - travaillent respectivement chez Google et Facebook, mais Bengio aspirait à une vie dans le monde universitaire, quelque part au-delà de la portée des tentacules industriels. Il a esquissé une liste des meilleurs chercheurs dans le domaine et au cours des semaines suivantes, Brockman a contacté tous ceux qu'il pouvait, y compris plusieurs autres.

Beaucoup de ces chercheurs ont bien accueilli l'idée, mais se sont méfiés de la possibilité d'un tel saut. Pour tenter de briser le cercle, Brockman a sélectionné les dix explorateurs qu'il voulait le plus voir et les a invités à passer le samedi avec du vin, des collations et une conversation dans une cave à vin de la Napa Valley. Pour Brockman, même un voyage à Napa a été le catalyseur du projet. «C'est une façon sous-estimée de rassembler les gens, surtout lorsque vous n'avez nulle part où vous précipiter pour atteindre votre objectif», dit-il. "Vous devez y aller, mais vous devez aussi parler." Et quand ils sont arrivés au vin, cette atmosphère est restée. Comme le dit Suckever, «le vin était secondaire à la conversation».

Greg Brockman

Image
Image

À la fin de la journée, Brockman a invité les dix chercheurs à se joindre au laboratoire et leur a donné trois semaines pour réfléchir. À la fin du mandat, neuf étaient aux commandes. Et ils y sont restés, malgré les grosses offres des géants de la Silicon Valley. «J'ai reçu une offre de séjour très intéressante, donc la décision n'a pas été facile», déclare Suckever de Google, son ancien employeur. "Finalement, j'ai décidé d'aller à OpenAI, en partie à cause du groupe de personnes très fort et, bien sûr, principalement à cause de leur mission."

Le mouvement d'apprentissage profond a commencé dans le milieu universitaire. Ce n'est que récemment que des entreprises comme Google, Microsoft et Facebook ont décidé de s'attaquer à ce domaine, car les progrès de la puissance de calcul brute ont fait de ces réseaux de neurones profonds une réalité, pas seulement une possibilité théorique. Des gens comme Hinton et LeCune ont quitté le monde universitaire chez Google et Facebook en raison des énormes ressources de ces entreprises. Mais est resté étroitement lié en collaboration avec d'autres théoriciens du domaine. Pourtant, comme l'explique LeCun, la recherche en deep learning nécessite la libre circulation des idées. «Quand vous faites des recherches en secret», dit-il, «vous vous repliez».

En conséquence, les grandes entreprises ont désormais à leur disposition une grande partie de leurs recherches sur l'IA. C'est un atout majeur, notamment pour Google, qui a longtemps gardé secrète la technologie de son empire en ligne. Il n'y a pas si longtemps, Google a ouvert le code source du moteur logiciel qui exécute ses réseaux neuronaux. Mais beaucoup reste sous clé dans cette course pour l'avenir. Brockman, Altman et Musk cherchent à pousser encore plus loin la notion d'ouverture en disant qu'ils ne veulent pas qu'une ou deux grandes entreprises contrôlent l'avenir de l'intelligence artificielle.

Limites d'ouverture

Tout cela sonne bien. Mais malgré tout l'idéalisme d'OpenAI, les chercheurs peuvent se retrouver dans les mêmes conditions qui les ont obligés à travailler sur d'anciens emplois. L'ouverture a ses limites. Et la vision à long terme de l'IA n'est pas le seul intérêt de ce jeu. OpenAI ne fait pas de travail caritatif. Les entreprises de Musk bénéficieront grandement du travail de la startup, tout comme Y Combinator d'Altman. «Il y a certainement des points concurrents», dit Lecun. - C'est une organisation à but non lucratif, mais elle entretient des relations étroites avec Y Combinator. Et les gens seront payés pour travailler dans cette industrie."

Le laboratoire ne paie pas les mêmes salaires astronomiques que Google et Facebook ont fournis aux chercheurs en IA, a déclaré Brockman. Mais il dit aussi que le laboratoire «veut bien les payer», et offre une compensation sous forme de stock-options, d'abord chez Y Combinator et plus tard éventuellement chez SpaceX (qui, contrairement à Tesla, est une société privée).

Néanmoins, Brockman insiste sur le fait qu'OpenAI ne prévoit pas de traitement spécial pour les sociétés liées. OpenAI est une initiative de recherche, pas une société de conseil. Pourtant, l'idéalisme d'OpenAI a ses limites. L'entreprise peut ne pas ouvrir le code pour tout ce qu'elle produit, même si l'objectif ultime est toujours d'en distribuer la majeure partie, qu'il s'agisse d'articles scientifiques ou de services Internet. «L'ouverture n'est pas nécessairement la meilleure option. Vous devez nourrir l'idée, voir où elle mène, puis publier, dit Brockman. - Nous produirons beaucoup de code open source. Mais nous aurons aussi beaucoup de choses qui ne sont pas encore prêtes à être publiées."

Suzkever ajoute également qu'OpenAI pourrait aller jusqu'à breveter certains de ses travaux. «Nous ne breveterons rien de sitôt», déclare Brockman. "Mais nous sommes prêts à changer de tactique à long terme, si nous pensons que ce sera mieux pour le monde." Par exemple, OpenAI peut faire des brevets proactifs pour décourager les autres d'obtenir des brevets.

Certains peuvent considérer les brevets comme un motif de profit. Mais c'est tout l'intérêt des brevets.

Le problème de la superintelligence

Lorsque Musk et Altman ont présenté OpenAI, ils ont également présenté le projet comme un moyen de neutraliser la menace d'une superintelligence malveillante. Bien sûr, une telle superintelligence pourrait résulter du travail d'OpenAI, mais ils insistent sur le fait que toute menace sera atténuée en rendant la technologie accessible à tous. «Nous pensons qu'il est beaucoup plus probable qu'une multitude d'IA puisse arrêter les mauvais acteurs aléatoires», dit Altman.

Mais tout le monde dans ce domaine ne croit pas à un tel résultat. Nick Bostrom, un philosophe d'Oxford qui, comme Musk, a mis en garde contre les dangers de l'IA, souligne que si vous partagez vos recherches sans restriction, les «mauvais acteurs» peuvent les attraper avant que tout le monde ne soit convaincu qu'ils sont en sécurité. "Si vous avez un bouton qui rend le monde merdique", dit Bostrom, "vous ne voulez probablement pas que tout le monde y ait accès." Si, d'un autre côté, OpenAI décide de retenir les recherches pour empêcher les méchants d'y accéder, Bostrom demande: en quoi cela différera-t-il de Google ou Facebook?

Image
Image

Il dit que oui, le statut à but non lucratif d'OpenAI peut ou non changer les choses. La vraie force du projet, dit-il, est qu'il peut être vérifié par Google et Facebook. «Il sera en mesure de réduire la probabilité que la super-intelligence soit monopolisée. Il pourra éliminer l'une des raisons possibles pour lesquelles certains individus ou groupes auront accès à une meilleure IA que tout le monde."

Dans un travail récent, le philosophe explique que le principal effet d'une initiative comme OpenAI - une initiative pour partager librement ce qui est fait - est d'accélérer les progrès de l'intelligence artificielle, du moins à court terme. Et cela peut accélérer les progrès à long terme, à condition de maintenir un niveau de transparence plus élevé que ce qui serait commercialement optimal.

«Il se peut qu'un investisseur en R&D à motivation philanthropique puisse sérieusement accélérer les progrès en poursuivant des politiques de science ouverte», dit-il.

Comment Xerox PARC

Début janvier, neuf des chercheurs de Brockman se sont réunis dans son appartement de San Francisco. Le projet était si nouveau qu'ils n'avaient même pas de tableaux blancs. (Imaginez.) Ils en ont acheté quelques-uns le même jour et se sont mis au travail.

Brockman dit qu'OpenAI commencera par explorer l'apprentissage par renforcement, une méthode d'apprentissage des problèmes basée sur la machine en les répétant encore et encore, en suivant les méthodes qui produisent les meilleurs résultats. Un autre défi majeur est le soi-disant «apprentissage non supervisé» - la création de machines capables d'auto-apprentissage sans assistance humaine. Aujourd'hui, l'apprentissage en profondeur repose sur des données soigneusement étiquetées. Si vous voulez apprendre à un réseau de neurones à reconnaître des photos de chats, vous devez lui donner un certain nombre d'exemples - et ces exemples doivent être étiquetés comme des photos de chats. Une telle formation est réalisée avec l'aide de personnes. Mais comme beaucoup d'autres scientifiques, OpenAI prévoit de créer des réseaux de neurones qui peuvent apprendre sans une sélection rigoureuse des données.

«Si vous avez une très bonne méthodologie d'enseignement sans enseignant, les machines peuvent apprendre de toutes les connaissances sur Internet - comme un humain, simplement en regardant autour de vous - ou en lisant des livres», explique Brockman.

Il voit OpenAI comme l'incarnation moderne de Xerox PARC, un laboratoire de recherche technologique qui existait dans les années 1970. Tout comme la recherche ouverte et gratuite de PARC a donné lieu à tout, des interfaces utilisateur graphiques et de l'impression laser à la programmation orientée objet, Brockman et son équipe veulent se plonger dans ce qui était autrefois de la science-fiction. PARC appartenait à Xerox, mais alimenté par de nombreuses autres entreprises, y compris Apple, car des gens comme Steve Jobs ont bien accueilli ses recherches. Brockman souhaite que tout le monde accueille la recherche OpenAI.

Dans l'espoir de stimuler cette dynamique, Brockman et la société ont recruté plusieurs autres chercheurs notables, dont Ian Goodfellow, un autre chercheur principal de l'équipe Google Brain. Brockman dit que PARC a rassemblé un groupe de personnes intelligentes et a décidé de voir ce qui s'était passé. "Vous avez besoin d'une vision partagée sans contrôle central."

Le manque de contrôle est essentiel à l'idéal. Si vous amenez suffisamment de personnes dans l'objectif collectif, le résultat final l'emportera sur tout ce que vous avez concocté en secret. Mais si l'IA devient aussi puissante que promis, l'équation changera. Nous avons besoin de l'assurance que la nouvelle IA adhèrera aux mêmes idéaux égalitaires qui ont conduit à sa création en premier lieu. Musk, Altman et Brockman croient aux gens, à la foule. Et s'ils ont raison, un jour cette foule ne sera plus complètement humaine.

ILYA KHEL