((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))
(Mises à jour tout au long du texte et ajout de contexte sur le conflit) par Karen Freifeld et Deepa Seetharaman
Jeudi, le Pentagone a officiellement désigné Anthropic, un laboratoire d'intelligence artificielle, comme présentant un risque pour la chaîne d'approvisionnement, limitant ainsi l'utilisation d'une technologie qui, selon une source, était utilisée dans le cadre d'opérations militaires en Iran .
La désignation de risque fait suite à un différend de plusieurs mois concernant l'insistance de l'entreprise sur des mesures de protection qui, selon le ministère de la défense, allaient trop loin.
Le label "risque de la chaîne d'approvisionnement", qui entre en vigueur immédiatement, interdit aux contractants du gouvernement d'utiliser la technologie d'Anthropic dans le cadre de leurs travaux pour l'armée américaine. L'étendue de la désignation n'a pas été précisée immédiatement.
Cette mesure intervient alors que le ministère s'appuie sur la technologie d'Anthropic, appelée Claude, pour soutenir des opérations militaires, notamment en Iran, selon une personne au fait du dossier.
Anthropic et le département de la défense, que l'administration Trump appelle le département de la guerre, n'ont pas immédiatement répondu aux demandes de commentaires.
Cette action a représenté une réprimande extraordinaire de la part des États-Unis à l'encontre d'une entreprise technologique américaine qui a été plus précoce que ses rivales pour travailler avec le Pentagone.
Claude est probablement utilisé pour analyser les renseignements et aider à la planification opérationnelle.
Maven Smart Systems de Palantir - une plateforme logicielle qui fournit aux armées des analyses de renseignements et des ciblages d'armes - utilise de multiples invites et flux de travail qui ont été construits à l'aide du code Claude d'Anthropic, a rapporté Reuters précédemment.
Anthropic a été le plus agressif de ses rivaux à courtiser les responsables américains de la sécurité nationale. Mais l'entreprise et le Pentagone sont en désaccord depuis des mois sur la manière dont l'armée peut utiliser sa technologie sur le champ de bataille. Ce conflit a éclaté au grand jour au début de l'année.
Anthropic a refusé de revenir sur les interdictions d'utilisation de l'IA de Claude pour les armes autonomes et la surveillance de masse des États-Unis. Le Pentagone a réagi en affirmant qu'il devrait être en mesure d'utiliser cette technologie en fonction des besoins, pour autant qu'elle soit conforme à la législation américaine.
L'étiquette "risque lié à la chaîne d'approvisionnement" confère désormais à Anthropic un statut que Washington avait jusqu'à présent réservé aux adversaires étrangers. Des mesures similaires ont été prises par les États-Unis pour retirer le géant chinois de la technologie Huawei des chaînes d'approvisionnement du Pentagone.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer