Le Pentagone a désigné Anthropic comme un risque pour la chaîne d'approvisionnement information fournie par Reuters 06/03/2026 à 03:13
((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))
* Le label "risque pour la chaîne d'approvisionnement" prend effet immédiatement
* Interdiction aux contractants du gouvernement d'utiliser la technologie d'Anthropic dans le cadre des activités militaires américaines
* Anthropic va contester la désignation devant les tribunaux
* Les entreprises peuvent toujours utiliser Claude dans des projets sans rapport avec le Pentagone
(Ajout de la déclaration de Microsoft aux paragraphes 11 et 12, et de la clause de non-responsabilité d'Amazon au paragraphe 13) par Karen Freifeld et Deepa Seetharaman
Le Pentagone a officiellement désigné le laboratoire d'intelligence artificielle Anthropic comme présentant un risque pour la chaîne d'approvisionnement, limitant ainsi l'utilisation d'une technologie qui, selon une source, était utilisée dans le cadre d'opérations militaires en Iran .
Le label "risque de la chaîne d'approvisionnement", confirmé dans un communiqué par Anthropic, prend effet immédiatement et interdit aux contractants du gouvernement d'utiliser la technologie d'Anthropic dans le cadre de leur travail pour l'armée américaine.
Les entreprises peuvent toutefois continuer à utiliser Claude d'Anthropic pour d'autres projets non liés au Pentagone, a indiqué le directeur général Dario Amodei dans le communiqué, ajoutant que les restrictions ne s'appliquent qu'à l'utilisation de l'IA d'Anthropic dans le cadre des contrats du Pentagone.
La désignation du risque fait suite à un différend de plusieurs mois concernant l'insistance de l'entreprise sur les garanties que le ministère de la Défense, que l'administration Trump appelle le ministère de la Guerre, a jugé excessives. Dans sa déclaration, M. Amodei a réaffirmé que l'entreprise contesterait la désignation devant les tribunaux.
Ces derniers jours, Anthropic et le Pentagone ont discuté des plans possibles pour que le Pentagone cesse d'utiliser Claude, a déclaré M. Amodei dans le communiqué de jeudi. Les deux parties ont discuté de la manière dont Anthropic pourrait continuer à travailler avec l'armée sans démanteler ses garanties, a-t-il ajouté.
M. Amodei s'est également excusé pour une note interne publiée mercredi par le site d'information technologique The Information. Dans cette note, rédigée à l'origine vendredi dernier, M. Amodei a déclaré que les responsables du Pentagone n'appréciaient pas la société en partie parce que "nous n'avons pas fait l'éloge de Trump comme un dictateur"
La publication du mémo interne est intervenue alors que les investisseurs d'Anthropic s'efforçaient de limiter les dégâts causés par les désaccords de l'entreprise avec le Pentagone.
Le ministère de la Défense n'a pas immédiatement répondu aux demandes de commentaires.
Cette action a représenté une réprimande extraordinaire de la part des États-Unis à l'encontre d'une entreprise technologique américaine qui a travaillé plus tôt que ses rivaux avec le Pentagone. Cette mesure intervient alors que le ministère continue de s'appuyer sur la technologie d'Anthropic pour soutenir des opérations militaires, notamment en Iran, selon une personne au fait du dossier.
Claude est probablement utilisé pour analyser les renseignements et aider à la planification des opérations.
Un porte-parole de Microsoft a déclaré que les juristes de l'entreprise avaient étudié la désignation et conclu que: « Les produits d'Anthropic, y compris Claude, peuvent rester à la disposition de nos clients – autres que le ministère de la Guerre – par l'intermédiaire de plateformes telles que M365, GitHub et Microsoft AI Foundry. »
Microsoft peut continuer à travailler avec Anthropic sur des projets non liés à la défense, a ajouté le porte-parole.
Amazon, un investisseur dans Anthropic et un client important du modèle Claude de l'entreprise, n'a pas immédiatement répondu à une demande de commentaire en dehors des heures d'ouverture.
Maven Smart Systems de Palantir - une plateforme logicielle qui fournit aux armées des analyses de renseignements et des ciblages d'armes - utilise de multiples invites et flux de travail qui ont été construits en utilisant le code Claude d'Anthropic, a rapporté Reuters plus tôt.
Anthropic a été le plus agressif de ses rivaux à courtiser les responsables américains de la sécurité nationale. Mais l'entreprise et le Pentagone sont en désaccord depuis des mois sur la manière dont l'armée peut utiliser sa technologie sur le champ de bataille. Ce conflit a éclaté au grand jour au début de l'année.
Anthropic a refusé de revenir sur les interdictions d'utilisation de l'IA de Claude pour les armes autonomes et la surveillance de masse des États-Unis. Le Pentagone a réagi en affirmant qu'il devrait être en mesure d'utiliser cette technologie en cas de besoin, à condition qu'elle soit conforme à la législation américaine.
L'étiquette "risque lié à la chaîne d'approvisionnement" confère désormais à Anthropic un statut que Washington avait jusqu'à présent réservé aux adversaires étrangers. Des mesures similaires ont été prises par les États-Unis pour retirer le géant technologique chinois Huawei des chaînes d'approvisionnement du Pentagone.