La société d’intelligence artificielle Anthropic s’apprête à engager une bataille judiciaire avec le département américain de la Défense. Son directeur général, Dario Amodei, a annoncé que l’entreprise contestera devant les tribunaux la décision du Pentagone de la désigner officiellement comme un « risque pour la chaîne d’approvisionnement », une mesure qui pourrait empêcher la société de travailler avec les agences militaires et leurs sous-traitants.

Selon Amodei, cette décision repose sur une interprétation juridique contestable et intervient après plusieurs semaines de désaccords concernant l’utilisation des systèmes d’IA par l’armée américaine.
Un désaccord sur l’usage militaire de l’intelligence artificielle
Le différend porte notamment sur le niveau de contrôle que le Pentagone souhaitait obtenir sur les technologies d’Anthropic, dont son modèle d’IA Claude. L’entreprise affirme avoir fixé des limites claires concernant l’utilisation de ses systèmes.

Le dirigeant a rappelé que la société refuse que ses technologies soient utilisées pour la surveillance de masse des citoyens américains ou pour des armes totalement autonomes. De son côté, le département de la Défense souhaitait pouvoir exploiter ces outils pour « toutes les utilisations légales ».
Une mesure aux conséquences limitées selon Anthropic
Un impact ciblé sur les contrats militaires
Dario Amodei précise toutefois que la décision du Pentagone de placer Anthropic sur liste noire ne concerne qu’un périmètre très spécifique : « Cette mesure s’applique uniquement à l’utilisation de Claude dans le cadre direct de contrats avec le département de la Défense, et non à l’ensemble des activités de nos clients », a déclaré le CEO

Un recours judiciaire envisagé
L’entreprise estime que la loi exige que le gouvernement utilise les moyens les moins restrictifs pour protéger ses infrastructures critiques. Anthropic compte donc s’appuyer sur cet argument pour contester la décision devant un tribunal fédéral.
Une rivalité indirecte avec OpenAI
La situation s’est également compliquée lorsque OpenAI a annoncé un accord de coopération avec le Pentagone. Cette annonce a suscité des réactions internes chez certains employés de la société concurrente.
Malgré la tension, Amodei affirme vouloir éviter une escalade et assure que la priorité d’Anthropic reste de fournir des outils utiles aux experts de la sécurité nationale. L’entreprise indique continuer à mettre ses modèles d’IA à disposition des autorités américaines à coût réduit pendant la période de transition.
Cette confrontation juridique pourrait constituer un test majeur pour l’industrie de l’intelligence artificielle, alors même que les relations entre les entreprises technologiques et les institutions militaires deviennent un enjeu croissant dans un contexte géopolitique ultra-tendu.