Le Pentagone s'oppose à Anthropic au sujet de l'utilisation de l'IA à des fins militaires - sources information fournie par Reuters 29/01/2026 à 23:22
((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto)) (Ajout d'éléments de contexte aux paragraphes 7 à 10) par Deepa Seetharaman, David Jeans et Jeffrey Dastin
Le Pentagone et le développeur d'intelligence artificielle Anthropic sont en désaccord sur l'élimination potentielle des garanties qui pourraient permettre au gouvernement d'utiliser sa technologie pour cibler des armes de manière autonome et effectuer la surveillance intérieure des États-Unis, ont déclaré à Reuters trois personnes familières avec le sujet.
Les discussions constituent un premier test pour savoir si la Silicon Valley - dans les bonnes grâces de Washington après des années de tensions - peut influencer la manière dont l'armée et les services de renseignement américains déploient une IA de plus en plus puissante sur le champ de bataille. Après des semaines de négociations dans le cadre d'un contrat d'une valeur de 200 millions de dollars , le ministère américain de la Défense et Anthropic sont dans l'impasse, ont déclaré six personnes au fait du dossier, sous le couvert de l'anonymat. La position de l'entreprise sur la manière dont ses outils d'IA peuvent être utilisés a intensifié les désaccords entre elle et l'administration Trump, dont les détails n'ont pas été rapportés précédemment.
Conformément à un mémo du 9 janvier du département de la Défense sur sa stratégie en matière d'IA, les responsables du Pentagone ont fait valoir qu'ils devraient être en mesure de déployer des technologies d'IA commerciales indépendamment des politiques d'utilisation des entreprises, tant qu'elles respectent la loi américaine, ont déclaré les personnes.
Un porte-parole du ministère, que l'administration Trump a renommé le ministère de la Guerre, n'a pas immédiatement répondu aux demandes de commentaires.
Dans un communiqué, Anthropic a déclaré que son IA est "largement utilisée pour des missions de sécurité nationale par le gouvernement américain et nous avons des discussions productives avec le Département de la Guerre sur les moyens de poursuivre ce travail." Anthropic est l'un des quelques grands développeurs d'IA qui ont obtenu des contrats du Pentagone l'année dernière. Les autres étaient Google d'Alphabet GOOGL.O , xAI d'Elon Musk et OpenAI. Anthropic a longtemps mis l'accent sur la sécurité nationale des États-Unis en même temps que ses dirigeants ont cherché à délimiter l'utilisation responsable. Cela a suscité des conflits avec l'administration Trump, Semafor a précédemment rapporté .
Dans un essai publié sur son blog personnel cette semaine, le directeur général d'Anthropic, Dario Amodei, a averti que l'IA devrait soutenir la défense nationale "de toutes les manières, sauf celles qui nous rendraient plus semblables à nos adversaires autocratiques." Amodei faisait partie des cofondateurs d'Anthropic qui ont critiqué les fusillades mortelles de citoyens américains qui protestaient contre les mesures de contrôle de l'immigration à Minneapolis, qu'il a qualifiées d'"horreur" dans un post sur X. Les décès ont renforcé les inquiétudes de certains dans la Silicon Valley quant à l'utilisation de leurs outils par le gouvernement pour des violences potentielles.