Experts et célébrités appellent à arrêter le développement de la superintelligence artificielle
information fournie par AFP 22/10/2025 à 07:32

Plus de 700 scientifiques, personnalités politiques, entrepreneurs tech et célébrités appellent à l'arrêt dau développement d'une superintelligence artificielle (IA) face aux risques que cela ferait encourir à l'humanité ( AFP / Kirill KUDRYAVTSEV )

Plus de 700 scientifiques, personnalités politiques, entrepreneurs tech et célébrités ont appelé mercredi à l'arrêt des travaux visant au développement d'une intelligence artificielle (IA) capable de surpasser les capacités humaines face aux risques que cela ferait encourir à l'humanité.

"Nous appelons à l'arrêt du développement d'une superintelligence, tant qu'il n'y a pas un consensus scientifique que cela peut être construit de façon contrôlée et sécurisée et tant qu'il n'existe pas un soutien de la part de la population", indique la page de l'initiative lancée par le Future of Life Institute, organisme non lucratif basé aux Etats-Unis qui met régulièrement en garde contre les méfaits de l'IA.

Parmi les signataires figurent plusieurs pères de l'IA moderne comme Geoffrey Hinton, prix Nobel de physique en 2024, Stuart Russell professeur d'informatique à l'Université de Californie à Berkeley ou encore Yoshua Bengio, professeur à l'université de Montréal.

La liste comprend aussi des figures de la tech comme Richard Branson, fondateur du groupe Virgin et Steve Wozniak, cofondateur d' Apple ; des personnalités politiques comme Steve Bannon, ancien conseiller du président américain Donald Trump et Susan Rice, conseillère à la sécurité nationale sous Barack Obama; des responsables religieux comme Paolo Benanti, conseiller du pape et principal expert du Vatican sur l'IA mais aussi des célébrités comme le chanteur américain will.i.am ou encore le prince Harry et son épouse Meghan Markle.

La plupart des grands acteurs de l'IA cherchent à développer l'intelligence artificielle générale (AGI), stade auquel l'IA égalerait toutes les capacités intellectuelles des humains, mais aussi la superintelligence, qui la verrait aller au-delà.

Pour Sam Altman, patron d'OpenAI qui a donné naissance à ChatGPT, le cap de la superintelligence pourrait ainsi être atteint d'ici cinq ans, a-t-il expliqué en septembre lors d'un événement du groupe médiatique Axel Springer.

"Peu importe que ce soit dans deux ou quinze ans, construire une telle chose est inacceptable", a déclaré à l'AFP Max Tegmark, président du Future of Life Institute, pour qui les entreprise ne devraient pas plancher sur ce type de travaux "sans aucun cadre réglementaire".

"On peut être en faveur de la création d'outils d'intelligence artificielle plus puissants, pour guérir le cancer par exemple, tout en étant contre la superintelligence", a-t-il ajouté.

Cette action fait écho à une lettre de chercheurs et cadres du secteur de l'IA, publiée il y a un mois lors de l'assemblée générale des Nations unies, qui réclamait l'instauration d'"accords internationaux sur des lignes rouges pour l'IA" pour prévenir des effets dévastateurs pour l'humanité.