Aller au contenu principal
Fermer

Microsoft, Google et xAI vont permettre au gouvernement américain d'accéder en avant-première à des modèles d'IA à des fins de contrôles de sécurité
information fournie par Reuters 05/05/2026 à 17:01

((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto)) (Ajout de l'engagement de l'administration Trump au paragraphe 2, de la déclaration de Microsoft au paragraphe 3 et d'une précision concernant Biden au paragraphe 7) par Courtney Rozen et Aditya Soni

Microsoft, Google et xAI, la société d’Elon Musk, ont accepté de donner au gouvernement américain un accès anticipé à de nouveaux modèles d’intelligence artificielle afin de les tester dans le cadre de la sécurité nationale, alors que les responsables américains s’inquiètent de plus en plus des capacités de piratage de Mythos, le nouveau modèle récemment dévoilé par Anthropic. Le Centre pour les normes et l'innovation en matière d'IA du ministère du Commerce a déclaré mardi que cet accord lui permettrait d'évaluer les modèles avant leur déploiement et de mener des recherches pour évaluer leurs capacités et les risques de sécurité qu'ils présentent. Cet accord concrétise un engagement pris par l'administration Trump en juillet 2025 de s'associer à des entreprises technologiques afin d'examiner leurs modèles d'IA pour détecter d'éventuels « risques pour la sécurité nationale ».

Microsoft travaillera avec des scientifiques du gouvernement américain pour tester les systèmes d’IA « de manière à détecter des comportements inattendus », a déclaré la société dans un communiqué. Ensemble, ils développeront des ensembles de données et des flux de travail communs pour tester les modèles de la société, a-t-elle ajouté. Microsoft a signé un accord similaire avec l’AI Security Institute britannique, selon le communiqué.

À Washington, les inquiétudes grandissent quant aux risques pour la sécurité nationale posés par les puissants systèmes d’IA. En s’assurant un accès précoce aux modèles de pointe, les responsables américains visent à identifier les menaces, allant des cyberattaques à l’utilisation abusive à des fins militaires, avant que ces outils ne soient largement déployés. Le développement de systèmes d’IA avancés, notamment Mythos d’Anthropic , a suscité ces dernières semaines un vif intérêt à l’échelle mondiale, y compris parmi les responsables américains et les entreprises américaines, en raison de leur capacité à donner des moyens considérables aux pirates informatiques.

« Une science de la mesure indépendante et rigoureuse est essentielle pour comprendre l’IA de pointe et ses implications en matière de sécurité nationale », a déclaré Chris Fall, directeur du CAISI, dans un communiqué. Cette initiative s'appuie sur des accords antérieurs conclus avec OpenAI et Anthropic, établis en 2024 sous l'administration Biden, alors que le CAISI était connu sous le nom d'Institut américain pour la sécurité de l'intelligence artificielle. Sous l'ancien président Joe Biden, l'institut s'était concentré sur l'élaboration de tests d'IA, de définitions et de normes de sécurité volontaires. Il était dirigé par Elizabeth Kelly, conseillère technologique de Joe Biden, qui a depuis rejoint Anthropic, selon son profil LinkedIn.

Le CAISI, qui sert de centre principal du gouvernement pour les tests de modèles d'IA, a déclaré avoir déjà réalisé plus de 40 évaluations, y compris sur des modèles de pointe qui ne sont pas encore accessibles au public.

Les développeurs remettent fréquemment des versions de leurs modèles dont les garde-fous de sécurité ont été supprimés afin que le centre puisse détecter les risques pour la sécurité nationale, a déclaré l'agence. xAI n'a pas immédiatement répondu à une demande de commentaires.Google a refusé de commenter.

La semaine dernière, le Pentagone a déclaré avoir conclu des accords avec sept entreprises spécialisées dans l'IA afin de déployer leurs capacités avancées sur les réseaux classifiés du département de la Défense, dans le but d'élargir l'éventail des fournisseurs d'IA travaillant au sein de l'armée. L'annonce du Pentagone n'incluait pas Anthropic, qui est en conflit avec **le Pentagone** au sujet des garde-fous relatifs à l'utilisation de ses outils d'IA par l'armée.

Valeurs associées

388,4300 USD NASDAQ +1,35%
411,3800 USD NASDAQ -0,54%

0 commentaire

Signaler le commentaire

Fermer

A lire aussi

  • Un secouriste ukrainien éteint un incendie à Zaporijjia, le 5 mai 2026 ( AFP / Darya NAZAROVA )
    information fournie par AFP 06.05.2026 05:38 

    L'Ukraine a accusé la Russie d'une nouvelle attaque mercredi matin, au lendemain de frappes russes qui ont fait au moins 28 morts dans le pays, alors qu'a débuté à minuit un cessez-le-feu annoncé unilatéralement par Kiev. A 03H30 GMT, six heures après l'entrée ... Lire la suite

  • Top 5 IA du 05/05/2026
    information fournie par Libertify 06.05.2026 05:00 

    Au programme ce matin : Bénéteau, Derichebourg, Intel, Rubis, Sanofi. Chaque matin à 7 heures, retrouvez le top 5 vidéo des valeurs sélectionnées par Libertify grâce à l'intelligence artificielle. Un point synthétique en images sur les titres qui font l'actualité ... Lire la suite

  • Le pavillon russe en amont de la Biennale de Venise le 5 mai 2026 ( AFP / MARCO BERTORELLO )
    information fournie par AFP 06.05.2026 04:06 

    Démission du jury, boycott du ministre de la Culture, menaces de l'UE: la 61e édition de la Biennale de Venise ouvre ses portes mercredi en avant-première à la presse dans un climat rendu inflammable par le retour de la Russie, absente depuis 2022. C'est la première ... Lire la suite

  • Les milieux portugais du Paris SG Joao Neves (à gauche) et Vitinha, le 5 mai 2026 à Munich ( AFP / Alexandra BEIER )
    information fournie par AFP 06.05.2026 03:57 

    Une semaine après avoir illuminé la planète foot, le Bayern et le Paris SG ont rendez-vous mercredi (21h00) à Munich pour le deuxième acte d'une demi-finale déjà légendaire de Ligue des champions, avec un billet à décrocher pour la finale. Pour cette double confrontation ... Lire la suite

Mes listes

Cette liste ne contient aucune valeur.
Chargement...