Le licenciement de Sam Altman à l'OpenAI reflète le schisme sur l'avenir du développement de l'IA information fournie par Reuters 20/11/2023 à 20:16
par Greg Bensinger
La rupture qui a coûté à Sam Altman, jeune prodige de l'intelligence artificielle, son poste de directeur général d'OpenAI reflète une divergence d'opinion fondamentale sur la sécurité, en général, entre deux camps qui développent le logiciel qui modifie le monde et qui réfléchissent à son impact sociétal.
D'un côté, il y a ceux qui, comme M. Altman, considèrent que le développement rapide et, surtout, le déploiement public de l'IA sont essentiels pour tester et perfectionner la technologie. D'un autre côté, il y a ceux qui estiment que la voie la plus sûre consiste à développer et à tester l'IA en laboratoire afin de s'assurer qu'elle est, pour ainsi dire, propre à la consommation humaine.
M. Altman, 38 ans, a été licencié vendredi de la société qui a créé le populaire chatbot ChatGPT. Pour beaucoup, il était considéré comme le visage humain de l'IA générative.
Certains craignent que les logiciels hyperintelligents ne deviennent incontrôlables et ne conduisent à une catastrophe, ce qui préoccupe les travailleurs du secteur technologique qui suivent un mouvement social appelé "altruisme efficace" et qui pensent que les progrès de l'IA devraient profiter à l'humanité. Ilya Sutskever, directeur scientifique d'OpenAI et membre du conseil d'administration qui a approuvé l'éviction de M. Altman, fait partie de ceux qui partagent ces craintes.
Une division similaire est apparue entre les développeurs de voitures autonomes - également contrôlées par l'IA - qui affirment qu'elles doivent être lâchées dans des rues urbaines denses pour comprendre pleinement les facultés et les faiblesses des véhicules, tandis que d'autres appellent à la retenue, craignant que la technologie ne présente des risques inconnus.
Ces inquiétudes concernant l'IA générative ont atteint leur paroxysme avec l'éviction surprise de M. Altman, qui était également cofondateur de l'OpenAI. L'IA générative est le terme utilisé pour désigner les logiciels capables de produire un contenu cohérent, comme des essais, du code informatique et des images de type photographique, en réponse à des demandes simples. La popularité du ChatGPT d'OpenAI au cours de l'année écoulée a accéléré le débat sur la meilleure façon de réglementer et de développer ce logiciel.
"La question est de savoir s'il s'agit d'un produit comme les autres, comme les médias sociaux ou les crypto-monnaies, ou s'il s'agit d'une technologie qui a la capacité de surpasser les humains et de devenir incontrôlable", a déclaré Connor Leahy, directeur général de ConjectureAI et défenseur de la sécurité. "L'avenir appartient-il alors aux machines? Sutskever aurait estimé qu'Altman poussait le logiciel d'OpenAI trop rapidement dans les mains des utilisateurs, ce qui pourrait compromettre la sécurité.
"Nous n'avons pas de solution pour diriger ou contrôler une IA potentiellement superintelligente, et pour l'empêcher de s'égarer", ont-ils écrit, lui et un adjoint, dans un billet de blog datant de juillet. "Les humains ne seront pas en mesure de superviser de manière fiable des systèmes d'IA beaucoup plus intelligents que nous
Le fait qu'OpenAI ait annoncé une série de nouveaux produits commerciaux lors de son événement destiné aux développeurs au début du mois, notamment une version de son logiciel ChatGPT-4 et des agents fonctionnant comme des assistants virtuels, a suscité une inquiétude particulière.
Sutskever n'a pas répondu à une demande de commentaire.
Le sort d'OpenAI est considéré par de nombreux technologues comme essentiel pour le développement de l'IA. Au cours du week-end, les discussions visant à réinstaller M. Altman ont tourné court, anéantissant les espoirs des acolytes de l'ancien directeur général.
La publication de ChatGPT en novembre dernier a suscité une frénésie d'investissements dans les entreprises d'IA, dont 10 milliards de dollars de Microsoft MSFT.O dans OpenAI et des milliards d'autres pour d'autres startups, notamment Alphabet
GOOGL.O et Amazon.com AMZN.O .
Cela peut contribuer à expliquer l'explosion des nouveaux produits d'IA, alors que des entreprises comme Anthropic et ScaleAI s'efforcent de montrer aux investisseurs qu'elles progressent. Les régulateurs, quant à eux, tentent de suivre le rythme du développement de l'IA, notamment par le biais de lignes directrices de l'administration Biden et d'une pression en faveur d'une "autorégulation obligatoire " de la part de certains pays, alors que l'Union européenne s'efforce de mettre en place une vaste surveillance des logiciels.
Alors que la plupart des gens utilisent des logiciels d'IA générative, tels que ChatGPT, pour compléter leur travail, comme la rédaction de résumés rapides de longs documents, les observateurs se méfient des versions qui pourraient voir le jour, connues sous le nom d'"intelligence générale artificielle" (AGI), qui pourraient effectuer des tâches de plus en plus compliquées sans aucune sollicitation. Cette situation a suscité des inquiétudes quant à la possibilité que le logiciel prenne le contrôle de systèmes de défense, crée de la propagande politique ou produise des armes.
OpenAI a été fondée en tant qu'association à but non lucratif il y a huit ans, en partie pour s'assurer que ses produits n'étaient pas motivés par la recherche du profit, ce qui pourrait l'entraîner sur une pente glissante vers une AGI dangereuse, ce que la charte de l'entreprise désigne comme toute menace de "nuire à l'humanité ou de concentrer indûment le pouvoir" Mais depuis lors, M. Altman a contribué à la création d'une entité à but lucratif au sein de l'entreprise dans le but de lever des fonds et d'atteindre d'autres objectifs.
Dimanche, en fin de journée, OpenAI a nommé Emmett Shear , l'ancien directeur de la plateforme de streaming Twitch, au poste de directeur général par intérim. En septembre, il a plaidé sur les médias sociaux pour un "ralentissement" du développement de l'IA. "Si nous sommes actuellement à une vitesse de 10, une pause équivaut à une réduction à 0. Je pense que nous devrions plutôt viser une vitesse de 1 à 2", a-t-il écrit.
Les raisons précises de l'éviction de M. Altman n'étaient pas encore claires lundi. Mais on peut en conclure que l'OpenAI est confrontée à des défis de taille pour l'avenir.