Aller au contenu principal
Fermer

Une étude révèle que les pratiques de sécurité des entreprises d'IA ne respectent pas les normes mondiales
information fournie par Reuters 03/12/2025 à 21:23

((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))

(Ajout de la déclaration de l'OpenAI aux paragraphes 8 et 9)

Les pratiques de sécurité des principales entreprises d'intelligence artificielle, telles qu'Anthropic, OpenAI, xAI et Meta, sont "loin des normes mondiales émergentes", selon une nouvelle édition de l'indice de sécurité de l'IA du Future of Life Institute, publiée mercredi.

L'institut a déclaré que l'évaluation de la sécurité, menée par un groupe d'experts indépendants, a révélé que si les entreprises étaient occupées à développer une superintelligence, aucune ne disposait d'une stratégie solide pour contrôler des systèmes aussi avancés.

L'étude intervient dans un contexte d'inquiétude publique accrue quant à l'impact sociétal de systèmes plus intelligents que l'homme, capables de raisonner et de faire preuve de logique, après que plusieurs cas de suicide et d'automutilation ont été liés à des chatbots d'IA .

"Malgré le récent tollé suscité par le piratage informatique et les cas de psychose et d'automutilation provoqués par l'IA, les entreprises américaines spécialisées dans l'IA restent moins réglementées que les restaurants et continuent de faire pression contre l'adoption de normes de sécurité contraignantes", a déclaré Max Tegmark, professeur au MIT et président de l'institut Future of Life.

Le Future of Life Institute est une organisation à but non lucratif qui s'inquiète des risques que les machines intelligentes font peser sur l'humanité. Fondé en 2014, il a été soutenu très tôt par le directeur général de Tesla TSLA.O , Elon Musk.

En octobre, un groupe comprenant les scientifiques Geoffrey Hinton et Yoshua Bengio a appelé à une interdiction du développement de l'intelligence artificielle superintelligente jusqu'à ce que le public l'exige et que la science ouvre une voie sûre.

Un porte-parole de Google DeepMind a déclaré que l'entreprise "continuera d'innover en matière de sécurité et de gouvernance au rythme de ses capacités" à mesure que ses modèles deviendront plus avancés, tandis que xAI a déclaré que "les médias hérités mentent", dans ce qui semblait être une réponse automatisée.

"Nous partageons nos cadres de sécurité, nos évaluations et nos recherches pour faire progresser les normes de l'industrie, et nous renforçons continuellement nos protections pour nous préparer aux capacités futures", a déclaré un porte-parole d'OpenAI.

L'entreprise investit massivement dans la recherche en matière de sécurité et teste "rigoureusement" ses modèles, a ajouté le porte-parole.

Anthropic, Meta, Z.ai, DeepSeek et Alibaba Cloud n'ont pas répondu aux demandes de commentaires sur l'étude.

Valeurs associées

16,838 EUR Tradegate -2,39%
20,6440 USD OTCBB +0,02%
319,6300 USD NASDAQ +1,21%
639,6000 USD NASDAQ -1,16%
446,7400 USD NASDAQ +4,08%

0 commentaire

Signaler le commentaire

Fermer

A lire aussi

Mes listes

Cette liste ne contient aucune valeur.
Chargement...