OpenAI détaille les protections en couches dans le pacte du département de la défense des États-Unis
information fournie par Reuters 01/03/2026 à 00:03

((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))

* L'accord d'OpenAI avec le Pentagone comprend des garanties supplémentaires

* Le contrat d'OpenAI fixe trois lignes rouges pour l'utilisation de l'IA

* L'accord interdit l'utilisation de l'IA pour les systèmes d'armes autonomes

* OpenAI s'oppose à ce que Anthropic soit considéré comme un risque pour la chaîne d'approvisionnement

(Ajout de détails et d'éléments de contexte)

OpenAI a déclaré samedi que l'accord qu'elle a conclu il y a un jour avec le Pentagone pour déployer sa technologie sur le réseau classifié du ministère américain de la Défense comprend des garanties supplémentaires pour protéger ses cas d'utilisation.

Vendredi, le président américain Donald Trump a ordonné au gouvernement de cesser de travailler avec Anthropic , et le Pentagone a indiqué qu'il déclarerait la startup comme présentant un risque pour la chaîne d'approvisionnement, portant un coup majeur au laboratoire d'intelligence artificielle après une épreuve de force sur les garde-fous technologiques. Anthropic a déclaré qu'elle contesterait toute désignation de risque devant les tribunaux.

Peu après, son rival OpenAI, soutenu par Microsoft MSFT.O , Amazon AMZN.O , SoftBank 9984.T et d'autres, a annoncé son propre accord vendredi en fin de journée.

"Nous pensons que notre accord comporte plus de garde-fous que n'importe quel accord précédent pour des déploiements d'IA classifiés, y compris celui d'Anthropic", a déclaré OpenAI samedi.

L'entreprise d'IA a déclaré que le contrat avec le ministère de la Défense, que l'administration Trump a rebaptisé le ministère de la Guerre, applique trois lignes rouges: La technologie d'OpenAI ne peut pas être utilisée pour la surveillance domestique de masse, pour diriger des systèmes d'armes autonomes ou pour toute décision automatisée à fort enjeu.

"Dans notre accord, nous protégeons nos lignes rouges par une approche plus large et multicouche. Nous conservons l'entière discrétion sur notre pile de sécurité, nous déployons via le cloud, le personnel autorisé d'OpenAI est dans la boucle, et nous avons de fortes protections contractuelles", a déclaré OpenAI.

L'année dernière, le Pentagone a signé des accords d'une valeur de 200 millions de dollars chacun avec de grands laboratoires d'IA, dont Anthropic, OpenAI et Google. Le Pentagone cherche à préserver toute sa flexibilité en matière de défense et à ne pas être limité par les mises en garde des créateurs de la technologie contre l'utilisation d'IA peu fiables dans la fabrication d'armes.

OpenAI a averti que toute violation de son contrat par le gouvernement américain pourrait entraîner une résiliation, tout en ajoutant: "Nous ne nous attendons pas à ce que cela se produise".

L'entreprise a également déclaré que son rival Anthropic ne devrait pas être qualifié de "risque pour la chaîne d'approvisionnement", notant que "nous avons clairement fait part de notre position à ce sujet au gouvernement".