Anthropic, qui propose le chatbot d’intelligence artificielle Claude, a déposé deux plaintes contre le département américain de la Défense américain, contestant la décision du Pentagone de lui apposer l’étiquette d’entreprise à risque risque pour la chaîne d’approvisionnement. La désignation, appliquée pour la première fois à une entreprise américaine, coupe de facto l’entreprise de tout contrat fédéral.

Cette étiquette est normalement réservée aux sociétés présentant un risque majeur pour la sécurité nationale, notamment celles liées au gouvernement chinois. Anthropic, dans ses deux recours déposés aujourd’hui simultanément devant le tribunal fédéral du district nord de Californie et devant la cour d’appel du circuit de Washington, affirme que les statuts légaux encadrant cette désignation sont étroits et ne s’appliquent pas aux entreprises américaines. L’entreprise accuse également le Pentagone d’avoir agi par motivation idéologique, en violation du premier amendement sur la liberté d’expression.
« C’est une étape nécessaire pour protéger notre activité, nos clients et nos partenaires », a déclaré Anthropic à plusieurs médias américains, dont le New York Times. « Nous continuerons à explorer toutes les voies vers une résolution, y compris le dialogue avec le gouvernement ».
Un contrat de 200 millions de dollars au cœur du conflit
Le différend remonte à des négociations pour un contrat de 200 millions de dollars destiné à fournir au Pentagone des technologies d’IA sur des systèmes classifiés. Anthropic avait refusé que ses modèles soient utilisés pour la surveillance de masse d’Américains ou pour des armes létales autonomes. Le Pentagone avait répliqué qu’une entreprise privée ne pouvait pas dicter sa politique au gouvernement américain. Les pourparlers ont échoué et le secrétaire à la Défense, Pete Hegseth, a ensuite annoncé la désignation de risque, formellement notifiée à Anthropic la semaine dernière.
L’ironie de la situation est que la technologie IA d’Anthropic reste activement déployée au sein du Pentagone, notamment pour analyser les vastes volumes de données collectées par les agences de renseignement américaines et pour la guerre en cours au Moyen-Orient. Anthropic a proposé d’aider le Pentagone à migrer vers un autre système d’IA, tout en maintenant son offre de négociation en parallèle des procédures judiciaires.
OpenAI et xAI prennent la place
Le vide laissé par Anthropic a déjà été comblé en réalité. OpenAI et xAI, la société d’Elon Musk, ont récemment signé des accords avec le département de la Défense américain pour fournir leurs technologies sur des systèmes classifiés. OpenAI a accepté que le Pentagone utilise ses modèles à toute fin légale, en négociant en contrepartie des garde-fous techniques pour limiter la surveillance de masse des Américains. Des critiques estiment toutefois que ces termes laissent des brèches exploitables.