((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))
Jeudi, un juge américain a temporairement bloqué l'inscription d'Anthropic sur la liste noire du Pentagone. Il s'agit du dernier rebondissement en date dans le conflit de haut vol entre le fabricant de Claude et l'armée au sujet de la sécurité de l'IA sur le champ de bataille. Le procès intenté par Anthropic devant le tribunal fédéral de Californie allègue que le secrétaire à la Défense Pete Hegseth a outrepassé son autorité en désignant Anthropic comme un risque pour la chaîne d'approvisionnement de la sécurité nationale, une étiquette que le gouvernement peut appliquer aux entreprises qui exposent les systèmes militaires à une infiltration ou à un sabotage potentiels par des adversaires.
La décision sans précédent de M. Hegseth , qui fait suite au refus d'Anthropic d'autoriser l'armée à utiliser le chatbot d'IA Claude pour la surveillance américaine ou les armes autonomes, a empêché Anthropic d'obtenir certains contrats militaires. Les dirigeants d'Anthropic ont déclaré que cela pourrait coûter à l'entreprise des milliards de dollars en pertes commerciales et en atteinte à sa réputation.
Anthropic affirme que les modèles d'IA ne sont pas suffisamment fiables pour être utilisés en toute sécurité dans des armes autonomes et qu'elle s'oppose à la surveillance intérieure, qu'elle considère comme une violation des droits, mais le Pentagone estime que les entreprises privées ne devraient pas être en mesure de limiter l'action militaire.
La juge Rita Lin, nommée par l'ancien président démocrate Joe Biden, a rendu sa décision lors d'une audience à San Francisco, après qu'Anthropic a demandé une ordonnance temporaire bloquant la désignation pendant la durée du litige. La décision de Mme Lin n'est pas définitive et l'affaire est toujours en cours.
La désignation d'Anthropic était la première fois qu'une entreprise américaine était publiquement désignée comme présentant un risque pour la chaîne d'approvisionnement en vertu d'une obscure loi sur les marchés publics visant à protéger les systèmes militaires contre le sabotage étranger.
Dans son action en justice du 9 mars, Anthropic affirme que le gouvernement a violé son droit à la liberté d'expression en vertu du premier amendement de la Constitution en exerçant des représailles contre son point de vue sur la sécurité de l'IA. L'entreprise affirme qu'elle n'a pas eu la possibilité de contester la désignation, ce qui constitue une violation de son droit à une procédure régulière au titre du cinquième amendement.
L'action en justice affirme que la décision est illégale, qu'elle n'est pas étayée par des faits et qu'elle n'est pas conforme aux louanges que l'armée a déjà adressées à Claude.
Le ministère de la Justice a rétorqué que le refus d'Anthropic de lever les restrictions pourrait créer une incertitude au sein du Pentagone quant à l'utilisation de Claude et risquerait de mettre hors service les systèmes militaires pendant les opérations, selon un document déposé au tribunal.
Le gouvernement a déclaré que la désignation découlait du refus d'Anthropic d'accepter des conditions contractuelles, et non de son point de vue sur la sécurité de l'IA. Anthropic fait l'objet d'un second procès à Washington, D.C., au sujet d'une autre désignation de risque de la chaîne d'approvisionnement du Pentagone qui pourrait conduire à son exclusion des contrats gouvernementaux civils.

1 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer