La Directrice générale d'Anthropic estime que la proposition d'interdire pendant dix ans la réglementation de l'IA par les États est "trop brutale" dans un article paru dans le New York Times
information fournie par Reuters 05/06/2025 à 13:23

((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))

Une proposition républicaine visant à empêcher les États de réglementer l'intelligence artificielle pendant 10 ans est "trop brutale", a écrit Dario Amodei, Directeur général d'Anthropic, dans un article d'opinion du New York Times.

M. Amodei a demandé à la Maison Blanche et au Congrès de travailler ensemble sur une norme de transparence pour les entreprises d'intelligence artificielle au niveau fédéral, afin que les risques émergents soient communiqués aux citoyens.

"Un moratoire de dix ans est un instrument beaucoup trop brutal. L'IA progresse à une vitesse trop vertigineuse", a déclaré M. Amodei.

"Sans un plan clair pour une réponse fédérale, un moratoire nous donnerait le pire des deux mondes - aucune capacité pour les États d'agir, et aucune politique nationale comme filet de sécurité."

La proposition, incluse dans le projet de réduction d'impôts du président Donald Trump ( ), vise à écarter les lois et réglementations sur l'IA adoptées récemment dans des dizaines d'États, mais elle a suscité l'opposition d'un groupe bipartisan de procureurs généraux qui ont réglementé les utilisations à haut risque de la technologie.

Au lieu de cela, une norme nationale exigerait des développeurs travaillant sur des modèles puissants qu'ils adoptent des politiques de test et d'évaluation de leurs modèles et qu'ils divulguent publiquement la manière dont ils prévoient de tester et d'atténuer les risques pour la sécurité nationale et d'autres risques, selon l'article d'opinion de M. Amodei.

Une telle politique, si elle est adoptée, signifierait également que les développeurs devraient être francs quant aux mesures qu'ils ont prises pour s'assurer que leurs modèles sont sûrs avant de les rendre publics, a-t-il ajouté.

M. Amodei a indiqué qu'Anthropic, soutenu par Amazon.com

AMZN.O , publie déjà de telles informations et que ses concurrents OpenAI et Google GOOGL.O DeepMind ont adopté des politiques similaires.

Des incitations législatives visant à garantir que ces entreprises continuent à divulguer ces détails pourraient devenir nécessaires, car la motivation des entreprises à fournir ce niveau de transparence pourrait changer à la lumière des modèles devenant plus puissants, a-t-il fait valoir.