La bataille judiciaire entre Anthropic et l’administration Trump se joue désormais sur deux fronts. Cette semaine, trois juges à Washington ont refusé de suspendre la désignation du Pentagone qui classe le créateur de l’intelligence artificielle Claude comme « risque pour la chaîne d’approvisionnement », tout en acceptant d’examiner l’affaire en accéléré avec une audience fixée au 19 mai.

La cour reconnaît qu’Anthropic « subira vraisemblablement un préjudice irréparable » au fil de la procédure, mais estime que la balance des intérêts penche en faveur du gouvernement. « D’un côté, un risque de préjudice financier relativement limité pour une seule entreprise privée », écrit la cour dans sa décision relayée par Bloomberg. « De l’autre, la gestion judiciaire de la façon dont le Département de la Guerre sécurise des technologies d’IA vitales durant un conflit militaire actif ». Cette désignation contraint les sous-traitants du Pentagone à certifier qu’ils n’utilisent pas les technologies d’Anthropic, ce qui expose l’entreprise à des milliards de dollars de pertes de revenus.
Les États-Unis ont un problème avec Anthropic
Le conflit trouve son origine dans le refus d’Anthropic, en février, d’accéder à l’ultimatum du secrétaire à la Défense Pete Hegseth qui exigeait un accès sans restriction à son modèle IA Claude pour des usages militaires. Anthropic avait posé ses conditions : pas de surveillance de masse des citoyens américains ni un armement autonome. Le gouvernement avait rejeté toute restriction au nom de la sécurité nationale, avant de décréter la désignation « risque pour la chaîne d’approvisionnement » le 27 février.
En Californie, Anthropic a décroché une première victoire le 27 mars : une juge de San Francisco a suspendu l’application du bannissement pendant toute la durée de la procédure, estimant que les sanctions violaient probablement la liberté d’expression en punissant l’entreprise pour avoir exprimé des réserves éthiques. L’administration Trump fait appel de cette décision.
Anthropic dit vouloir avancer. « Bien que cette procédure soit nécessaire pour protéger Anthropic, nos clients et nos partenaires, notre priorité reste de travailler de manière constructive avec le gouvernement pour que tous les Américains bénéficient d’une IA sûre et fiable », a déclaré l’entreprise. L’enjeu dépasse son seul cas : Anthropic soutient que les principes juridiques en cause concernent tout contractant fédéral dont les positions déplairaient à l’administration Trump.