C’est un camouflet pour l’administration Trump : un juge fédéral américain a accordé à Anthropic une injonction préliminaire qui empêche, pour l’instant, l’administration de bannir ses services de l’usage fédéral et de la qualifier officiellement de « supply chain risk » (risque pour la chaîne d’approvisionnement). La décision ne tranche pas le fond du dossier, mais suspend les mesures les plus pénalisantes pendant que la procédure suit son cours.
Au cœur du litige : l’usage de l’IA dans la surveillance et les armes autonomes
Le différend s’est cristallisé après le refus d’Anthropic de modifier des clauses contractuelles qui auraient permis, selon l’entreprise, l’utilisation de ses modèles pour la surveillance de masse et le développement d’armes autonomes. En réaction, Washington avait ordonné l’arrêt d’usage de Claude et d’autres services, tandis que le Département de la Défense avait désigné l’éditeur comme étant un risque pour la sécurité nationale.

Une motivation jugée punitive
Dans son ordonnance, la juge estime que les mesures contestées « semblent conçues pour punir Anthropic ». Cette dernière ajoute que « punir Anthropic pour avoir exposé publiquement la position contractuelle du gouvernement constitue une représaille illégale classique au regard du Premier Amendement ». La magistrate critique aussi une logique qu’elle qualifie même d’« orwellienne » : « Rien dans le texte applicable ne justifie l’idée qu’une entreprise américaine puisse être traitée en adversaire potentiel et saboteur pour avoir exprimé son désaccord avec le gouvernement. »
Ce que cela change (et ce qui reste incertain)
Concrètement, Anthropic évite, à court terme, une mise à l’écart des achats publics et l’effet domino d’une étiquette dissuasive pour ses partenaires. Mais la bataille juridique continue : l’issue finale de la bataille juridique en cours déterminera si la désignation et le bannissement étaient légaux.
3 commentaires pour cet article :