((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))
(Corrige la date du 8 avril. Pas de changement dans le texte) par Jack Queen
Une cour d'appel fédérale de Washington, D.C., a refusé mercredi de bloquer l'inscription d'Anthropic sur la liste noire de la sécurité nationale du Pentagone pour le moment, une victoire pour l'administration Trump qui survient après qu'une autre cour d'appel est arrivée à la conclusion opposée dans un défi juridique distinct intenté par Anthropic. Anthropic, concepteur du populaire assistant d'intelligence artificielle Claude, allègue que le secrétaire à la défense Pete Hegseth a outrepassé son autorité en désignant la société comme présentant un risque pour la sécurité nationale de la chaîne d'approvisionnement, une étiquette qui empêche Anthropic d'obtenir des contrats du Pentagone et qui pourrait déclencher une mise à l'index à l'échelle du gouvernement.
Les dirigeants d'Anthropic ont déclaré que cette désignation pourrait coûter à l'entreprise des milliards de dollars en termes de perte d'activité et d'atteinte à la réputation.
Un groupe de juges de la cour d'appel du district de Columbia a rejeté la demande d'Anthropic de suspendre la désignation pendant que l'affaire suit son cours. Cette décision n'est pas définitive.
Ce procès est l'un des deux qu'Anthropic a intentés à la suite de la décision sans précédent de M. Hegseth , qui a été prise après qu'Anthropic a refusé d'autoriser l'armée à utiliser le chatbot d'IA Claude pour la surveillance américaine ou les armes autonomes, en raison de problèmes de sécurité et d'éthique.
M. Hegseth a émis des ordonnances désignant Anthropic en vertu de deux lois différentes, et Anthropic conteste chacune d'entre elles séparément.
Le 26 mars, un juge fédéral californien a bloqué l'une des ordonnances, estimant que le Pentagone semblait avoir exercé des représailles illégales contre Anthropic en raison de ses opinions sur la sécurité de l'IA.
La désignation d'Anthropic était la première fois qu'une entreprise américaine était publiquement désignée comme présentant un risque pour la chaîne d'approvisionnement en vertu d'obscures lois sur les marchés publics visant à protéger les systèmes militaires contre le sabotage ou l'infiltration par l'ennemi.
Dans ses poursuites, Anthropic affirme que le gouvernement a violé son droit à la liberté d'expression en vertu du premier amendement de la Constitution en exerçant des représailles contre ses points de vue sur la sécurité de l'IA. L'entreprise affirme qu'elle n'a pas eu la possibilité de contester sa désignation, ce qui constitue une violation de son droit à une procédure régulière, garanti par le cinquième amendement.
Les poursuites judiciaires affirment que les désignations étaient illégales, non étayées par des faits et incompatibles avec les louanges que l'armée a déjà adressées à Claude. Selon le ministère de la justice, le refus de Anthropic de lever les restrictions pourrait créer une incertitude au sein du Pentagone quant à l'utilisation de Claude et risquerait de mettre hors service les systèmes militaires pendant les opérations, selon un document déposé au tribunal .
Le gouvernement a déclaré que sa décision découlait du refus d'Anthropic d'accepter les conditions contractuelles, et non de ses points de vue sur la sécurité de l'IA.
L'affaire du district de Columbia concerne une loi qui pourrait conduire à l'élargissement de la liste noire à l'ensemble du gouvernement civil à la suite d'un processus d'examen interagences.
L'affaire californienne porte sur une loi plus restrictive qui exclut Anthropic des contrats du Pentagone liés aux systèmes d'information militaires.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer