Aller au contenu principal
Fermer

Une étude révèle que les pratiques de sécurité des entreprises d'IA ne respectent pas les normes mondiales
information fournie par Reuters 03/12/2025 à 12:00

((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))

Les pratiques de sécurité des principales entreprises d'intelligence artificielle, telles qu'Anthropic, OpenAI, xAI et Meta, sont "loin des normes mondiales émergentes", selon une nouvelle édition de l'indice de sécurité de l'IA du Future of Life Institute, publiée mercredi.

L'institut a déclaré que l'évaluation de la sécurité, menée par un groupe d'experts indépendants, a révélé que si les entreprises étaient occupées à développer une superintelligence, aucune ne disposait d'une stratégie solide pour contrôler des systèmes aussi avancés.

L'étude intervient dans un contexte d'inquiétude publique accrue quant à l'impact sociétal de systèmes plus intelligents que l'homme, capables de raisonner et de faire preuve de logique, après que plusieurs cas de suicide et d'automutilation ont été liés à des chatbots d'IA .

"Malgré le récent tollé suscité par le piratage informatique et les cas de psychose et d'automutilation provoqués par l'IA, les entreprises américaines spécialisées dans l'IA restent moins réglementées que les restaurants et continuent de faire pression contre l'adoption de normes de sécurité contraignantes", a déclaré Max Tegmark, professeur au MIT et président de l'organisation Future of Life.

La course à l'IA ne montre aucun signe de ralentissement, les grandes entreprises technologiques consacrant des centaines de milliards de dollars à l'amélioration et à l'expansion de leurs efforts en matière d'apprentissage automatique.

Le Future of Life Institute est une organisation à but non lucratif qui s'inquiète des risques que les machines intelligentes font peser sur l'humanité. Fondé en 2014, il a été soutenu très tôt par le directeur général de Tesla TSLA.O , Elon Musk.

En octobre, un groupe comprenant les scientifiques Geoffrey Hinton et Yoshua Bengio a appelé à une interdiction du développement de l'intelligence artificielle superintelligente jusqu'à ce que le public l'exige et que la science ouvre une voie sûre.

Valeurs associées

16,838 EUR Tradegate -2,39%
20,6440 USD OTCBB +0,02%
321,3300 USD NASDAQ +1,75%
644,1000 USD NASDAQ -0,46%
446,4350 USD NASDAQ +4,01%

0 commentaire

Signaler le commentaire

Fermer

A lire aussi

Mes listes

Cette liste ne contient aucune valeur.
Chargement...