Anthropic ne peut accéder à la demande du Pentagone dans le cadre du litige sur les garanties de l'IA, déclare son directeur général
information fournie par Reuters 27/02/2026 à 04:40

((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))

*

Anthropic refuse la demande du Pentagone de supprimer les garde-fous de l'IA

*

Le Pentagone déclare qu'il ne cherche pas à utiliser l'IA pour une surveillance domestique de masse ou des armes entièrement autonomes

(Refonte complète; ajout d'une lettre des employés de Google et d'OpenAI au paragraphe 13)

Anthropic a déclaré qu'elle n'accéderait pas à la demande du Pentagone d'éliminer les garanties de ses systèmes d'IA,malgré les menaces de considérer l'entreprise comme un "risque pour la chaîne d'approvisionnement" et de la retirer des systèmes du ministère de la défense, ce qui mettrait en péril un contrat de 200 millions de dollars.

Le différend entre le Pentagone et Anthropic découle du refus de la startup d'IA de supprimer les garanties qui empêcheraient sa technologie d'être utilisée pour cibler des armes de manière autonome et effectuer de la surveillance aux États-Unis.

Plus tôt dans la journée, le porte-parole du Pentagone, Sean Parnell, a déclaré sur X que le département n'avait aucun intérêt à utiliser l'IA pour effectuer une surveillance de masse des Américains et qu'il ne souhaitait pas non plus utiliser l'IA pour développer des armes autonomes fonctionnant sans intervention humaine.

"Voici ce que nous demandons: Permettre au Pentagone d'utiliser le modèle d'Anthropic à toutes fins légales", a déclaré Sean Parnell, ajoutant que l'entreprise avait jusqu'à 17 h 01 (heure de l'Est) vendredi pour prendre une décision.

"Dans le cas contraire, nous mettrons fin à notre partenariat avec Anthropic et les qualifierons de risque pour la chaîne d'approvisionnement.

Dans une déclaration faite jeudi, le directeur général d'Anthropic, Dario Amodei , a souligné que l'entreprise s'opposait à ce que le Pentagone utilise ses modèles d'IA pour la surveillance domestique de masse ou pour alimenter des armes entièrement autonomes, cette dernière raison étant due au fait que "les systèmes d'IA d'avant-garde ne sont tout simplement pas assez fiables".

Une source proche de l'entreprise a déclaré qu'Anthropic n'accusait pas le Pentagone d'avoir l'intention d'utiliser l'IA pour l'une ou l'autre de ces utilisations, mais qu'elle émettait un jugement sur la sécurité du produit.

La source a déclaré que les systèmes d'IA n'étaient pas suffisamment fiables pour le "ciblage de la vie ou de la mort" parce qu'ils se comportent de manière imprévisible dans des scénarios nouveaux, ce qui pourrait conduire à des "tirs amis, à l'échec de la mission ou à une escalade involontaire" dans un contexte d'armement.

L'utilisation de l'IA pour la surveillance domestique de masse est problématique car les lois actuelles ne limitent pas les conclusions que l'IA peut tirer de l'agrégation de grandes quantités de données, selon la source. Cela signifie que l'IA pourrait établir des profils de population qu'"aucune loi n'interdit explicitement, mais qui violent clairement l'esprit des protections constitutionnelles", ont-ils ajouté.

Dario Amodei a déclaré qu'il espérait que le Pentagone reviendrait sur sa décision, mais que la société "s'efforcerait d'assurer une transition en douceur vers un autre fournisseur" si le Pentagone décidait d'annuler le contrat.

Le Pentagone a menacé de retirer Anthropic de ses systèmes si l'entreprise maintenait les garanties, de la désigner comme un risque pour la chaîne d'approvisionnement et d'invoquer le Defense Production Act pour forcer le retrait des garanties, a déclaré Dario Amodei.

"Quoi qu'il en soit, ces menaces ne modifient pas notre position: nous ne pouvons pas, en toute conscience, accéder à leur demande."

Le sous-secrétaire à la défense Emil Michael a réagi sur X en déclarant: "C'est une honte que @DarioAmodei soit un menteur et qu'il ait un complexe de Dieu. Il ne veut rien d'autre que d'essayer de contrôler personnellement l'armée américaine et il est d'accord pour mettre la sécurité de notre nation en danger.".

Emil Michael a déclaré que le Pentagone "respecterait TOUJOURS la loi, mais ne se plierait pas aux caprices d'une entreprise technologique à but lucratif".

Anthropic, soutenue par Google et Amazon, a conclu avec le ministère un contrat d'une valeur maximale de 200 millions de dollars.

Un porte-parole d'Anthropic a déclaré que l'entreprise était "prête à poursuivre les négociations et s'engageait à assurer la continuité opérationnelle pour le ministère et les combattants américains".

Plus de 200 employés de Google et d'OpenAI ont soutenu la position d'Anthropic dans une lettre ouverte.

Google et OpenAI n'ont pas répondu immédiatement à une demande de commentaire de Reuters.