((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))
*
Le Pentagone qualifie Anthropic de risque pour la chaîne d'approvisionnement et conclut un accord avec OpenAI
*
Trump menace de prendre d'autres mesures si Anthropic n'est pas utile
*
Le président ordonne l'abandon progressif pendant six mois de la technologie Anthropic dans l'ensemble du gouvernement
(Ajout de l'accord avec OpenAI dans les paragraphes 8-9) par Andrea Shalal, Jeffrey Dastin et Ryan Patrick Jones
Le président américain Donald Trump a déclaré vendredi qu'il ordonnait au gouvernement d'arrêter de travailler avec Anthropic, et le Pentagone a déclaré qu'il déclarerait la startup un risque pour la chaîne d'approvisionnement, portant un coup majeur au laboratoire d'intelligence artificielle après une épreuve de force sur les garde-fous technologiques.
M. Trump a ajouté qu'il y aurait un abandon progressif de six mois pour le département de la défense et les autres agences qui utilisent les produits de l'entreprise. Si Anthropic n'aide pas à la transition, M. Trump a déclaré qu'il utiliserait "les pleins pouvoirs de la présidence pour les obliger à se conformer, avec d'importantes conséquences civiles et pénales à la clé."
Ces mesures constituent une réprimande extraordinaire des États-Unis à l'encontre de l'une des premières entreprises qui leur a permis de rester à la pointe de l'IA critique pour la sécurité nationale, menaçant de conférer à Anthropic un statut de paria que Washington réservait jusqu'à présent aux fournisseurs ennemis. Google GOOGL.O , filiale d'Alphabet, et Amazon.com AMZN.O figurent parmi les bailleurs de fonds d'Anthropic.
Ces mesures créent un précédent selon lequel la loi américaine seule limiterait la manière dont l'IA est déployée sur le champ de bataille, alors que le Pentagone cherche à préserver toute flexibilité en matière de défense et à ne pas être limité par les mises en garde des créateurs de la technologie contre l'utilisation d'une IA peu fiable pour alimenter des armes.
Dans un communiqué, Anthropic a déclaré qu'elle contesterait en justice toute désignation de risque par le ministère de la Défense, que l'administration Trump a rebaptisé ministère de la Guerre.
"Nous pensons que cette désignation serait à la fois juridiquement infondée et créerait un dangereux précédent pour toute entreprise américaine qui négocie avec le gouvernement", a déclaré l'entreprise.
"Aucune intimidation ou punition de la part du Département de la guerre ne changera notre position sur la surveillance domestique de masse ou les armes entièrement autonomes."
Vendredi en fin de journée, la société rivale OpenAI, soutenue par Microsoft MSFT.O , Amazon et d'autres, a annoncé son propre accord pour déployer sa technologie dans le réseau classifié du ministère de la défense. Le directeur général Sam Altman a déclaré sur X que le Pentagone partageait ses principes de responsabilité humaine concernant les systèmes d'armes et l'absence de surveillance de masse par les États-Unis.
"Nous les avons intégrés dans notre accord", a déclaré M. Altman à propos de ces points. "Nous mettrons également en place des garanties techniques afin de nous assurer que nos modèles se comportent comme ils le devraient, ce que le ministère de la Guerre souhaitait également."
Il n'a pas été possible de savoir immédiatement si ces détails contractuels différaient des lignes rouges proposées par Anthropic. Le Pentagone et OpenAI n'ont pas répondu immédiatement à une demande de commentaire.
gUERRE NUCLÉAIRE
Le secrétaire à la défense, Pete Hegseth, a déclaré qu'Anthropic serait désignée un risque pour la chaîne d'approvisionnement, à la suite de l'impasse de plusieurs mois de discussions sur la question de savoir si les politiques de l'entreprise pourraient limiter l'action militaire.
Lors de sa rencontre avec M. Hegseth cette semaine, le directeur général d'Anthropic, Dario Amodei, a plaidé en faveur de limites en matière d'armement et de surveillance, ce qui a irrité les responsables du Pentagone. Le Pentagone a déclaré que la loi américaine, et non une entreprise privée, déterminerait comment défendre le pays.
Cette désignation pourrait empêcher des dizaines de milliers de sous-traitants d'utiliser l'IA d'Anthropic lorsqu'ils travaillent pour le Pentagone. Cela représente une menace existentielle pour ses activités avec le gouvernement et pourrait nuire à ses relations avec le secteur privé, a déclaré Franklin Turner, un avocat spécialisé dans les contrats gouvernementaux.
"L'inscription d'Anthropic sur la liste noire est l'équivalent contractuel d'une guerre nucléaire", a-t-il déclaré.
Des mesures similaires ont été prises par les États-Unis pour retirer le géant technologique chinois Huawei des chaînes d'approvisionnement du Pentagone. Depuis 2017, les États-Unis ont restreint l'utilisation par le ministère de la défense des équipements Huawei, ont interdit aux agences fédérales d'acheter sa technologie et ont mis un terme aux subventions et prêts fédéraux destinés aux équipements Huawei.
Anthropic s'est empressée de remporter une compétition féroce pour vendre des technologies novatrices aux entreprises et aux gouvernements, en particulier pour la sécurité nationale, avant une introduction en bourse largement attendue . L'entreprise a déclaré qu'elle n'avait pas encore finalisé la décision d'une introduction en bourse.
Saif Khan, qui a travaillé au Conseil de sécurité nationale de la Maison Blanche de l'ancien président Joe Biden, a déclaré que l'action du ministère de la défense "pourrait être la réglementation nationale sur l'IA la plus draconienne qu'un gouvernement ait jamais promulguée."
"On peut dire que le ministère considère Anthropic comme une plus grande menace pour la sécurité nationale que n'importe quelle entreprise d'IA chinoise, dont aucune n'a été désignée comme risque pour la chaîne d'approvisionnement", a déclaré M. Khan.
rOBOTS TUEURS
Les entreprises technologiques et le Pentagone se sont affrontés à plusieurs reprises depuis au moins 2018, lorsque des employés de Google, filiale d'Alphabet, ont protesté contre l'utilisation par le Pentagone de son IA pour analyser des séquences de drones. Un rapprochement s'en est suivi, avec des entreprises comme Amazon et Microsoft qui se disputent les marchés de la défense, tandis que plusieurs directeurs généraux de grandes entreprises technologiques se sont engagés à coopérer l'année dernière avec l'administration Trump.
Mais les "robots tueurs" théoriques ont inquiété les défenseurs des droits de l'homme et de la technologie lorsque les guerres en Ukraine et à Gaza ont mis en évidence des systèmes de plus en plus automatisés. L'action militaire américaine plus audacieuse de l'année dernière a renforcé ces inquiétudes, a déclaré Jack Shanahan, qui a dirigé le projet Maven de guerre algorithmique du Pentagone.
L'aval juridique de la Maison Blanche pourrait être "une couverture maximale pour quiconque fait quoi que ce soit qui pourrait entraîner un manque de respect des procédures, des victimes civiles, des dommages collatéraux."
L'année dernière, le Pentagone a signé des accords d'une valeur de 200 millions de dollars chacun avec de grands laboratoires d'IA, dont Anthropic, OpenAI et Google.
Anthropic, qui négocie pour obtenir des prix inférieurs à ce plafond, a fait part de ses inquiétudes quant à la capacité du système juridique à suivre les progrès de l'IA. À l'heure actuelle, par exemple, les lois américaines n'empêchent pas l'utilisation de la technologie pour compiler des données apparemment inoffensives afin de révéler des informations sur la vie privée des gens, a déclaré son directeur général, M. Amodei.
L'IA d'Anthropic a été utilisée par la communauté du renseignement et les services armés, et elle a été la première des entreprises d'IA à travailler avec des informations classifiées, par le biais d'un accord de fourniture via le fournisseur de services en nuage Amazon.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer