Anthropic PBC a obtenu une ordonnance du tribunal bloquant l’interdiction par l’administration Trump de l’utilisation par le gouvernement de la technologie d’intelligence artificielle de l’entreprise, après que le développeur de chat Claude a affirmé que cette décision pourrait coûter des milliards de dollars en perte de revenus.
La juge de district américaine Rita F. Lin a émis jeudi une injonction préliminaire, suspendant le projet de l’administration de couper tous les liens avec Anthropic pendant que la loi est débattue devant le tribunal fédéral de San Francisco. Il a annulé l’ordonnance pendant sept jours pour permettre au gouvernement de faire appel.
La société a intenté une action en justice plus tôt ce mois-ci pour bloquer une déclaration du ministère de la Défense selon laquelle Anthropic représentait une menace pour la chaîne d’approvisionnement américaine, intensifiant ainsi un débat houleux sur la protection de la technologie d’IA utilisée par l’armée.
La startup voulait s’assurer que son IA ne serait pas utilisée pour la surveillance massive des Américains ou pour livrer des armes spéciales, le gouvernement ayant évoqué des problèmes de sécurité nationale en disant qu’il ne pouvait pas accepter les restrictions.
Lin a remis en question la raison de cette interdiction, affirmant qu’elle ne visait pas les intérêts de la sécurité nationale.
“Si l’inquiétude concernait l’intégrité de la chaîne de commandement, le ministère de la Guerre aurait pu interdire l’utilisation de Claude”, a écrit le juge. “Cependant, ces méthodes sont conçues pour punir les Anthropiques.” Cette décision, a-t-il déclaré, « représente un coût terrible pour le premier amendement ».
Un porte-parole du Pentagone n’a pas immédiatement répondu à une demande de commentaires formulée après les heures de bureau. Emil Michael, sous-secrétaire à la recherche et à l’ingénierie, a qualifié la décision de “honteuse” dans un communiqué de presse jeudi soir et a déclaré qu'”il y avait de nombreuses erreurs de vérité” dans le jugement.
Dans un communiqué, Anthropic a salué la décision du juge. “Bien que cette affaire soit nécessaire pour protéger Anthropic, nos clients et nos partenaires, nous restons déterminés à travailler efficacement avec le gouvernement pour garantir que tous les Américains bénéficient d’une IA sûre et fiable”, a déclaré la société.
Anthropic affirme qu’elle est exclue des contrats gouvernementaux parce qu’elle n’est pas d’accord avec l’administration et affirme que les principes juridiques qui s’appliquent aux entrepreneurs gouvernementaux ne sont pas en faveur du gouvernement. L’administration Trump a promis une bataille juridique pour évincer Anthropic de toutes les fonctions du gouvernement américain.
Lors d’une audience devant Lin plus tôt cette semaine, un procureur fédéral a déclaré que la confiance est un élément important de la relation entre l’armée et les entreprises qui fournissent des services, et qu’Anthropic a détruit cette confiance lors des négociations contractuelles en essayant de dicter les politiques du Pentagone sur l’utilisation de la technologie de l’IA.
L’avocat a fait valoir que le gouvernement est préoccupé par le risque de « sabotage futur » de la part d’Anthropic, y compris les modifications apportées au logiciel d’IA que le gouvernement achètera à l’entreprise.
Mais dans sa décision, Lin a déclaré que le ministère américain de la Justice n’avait pas de « autorité raisonnable » pour conclure que l’insistance d’Anthropic sur les restrictions sur sa technologie d’IA lui permettrait de « devenir un saboteur ».
Lors du procès, un avocat d’Anthropic a souligné que le Pentagone peut examiner un prototype d’IA avant son déploiement et qu’Anthropic n’a aucun moyen d’empêcher un prototype de fonctionner, de modifier son fonctionnement, de le désactiver ou de voir comment l’armée l’utilisera.
Dans le cadre de la bataille juridique contre l’interdiction, Anthropic a également déposé une plainte auprès d’une cour d’appel de Washington, DC, ciblant une loi qui régit les mesures visant à réduire les risques liés à la chaîne d’approvisionnement dans les achats. Dans ce procès, la société a déclaré que le ministère de la Défense avait outrepassé son autorité et que les actions étaient « déraisonnables, provocatrices et inadmissibles ».
Metz écrit pour Bloomberg.







