Quelques heures à peine après que Donald Trump a ordonné l’éviction d’Anthropic de tous les contrats fédéraux, OpenAI a annoncé la signature d’un accord avec le Pentagone, à savoir le département de la Défense américain, pour déployer ses modèles d’intelligence artificielle sur le réseau classifié militaire. Ironiquement, le créateur de ChatGPT obtient le contrat en défendant exactement les mêmes principes éthiques qui ont coûté celui au créateur de Claude.

« Ce soir, nous avons conclu un accord avec le département de la Guerre pour déployer nos modèles dans leur réseau classifié », a écrit Sam Altman, patron d’OpenAI, sur X. « Tout au long de nos discussions, le département de la Guerre a fait preuve d’un profond respect pour la sécurité et d’une volonté de collaborer pour obtenir le meilleur résultat possible ».
Des garde-fous identiques à ceux d’Anthropic, cette fois acceptés
Il y a un paradoxe dans cette affaire. OpenAI a obtenu du Pentagone l’inscription dans le contrat de deux garde-fous qui avaient été refusés à Anthropic : l’interdiction d’utiliser ses modèles pour la surveillance de masse de citoyens américains et l’obligation de maintenir une supervision humaine pour tout recours à la force, y compris pour les systèmes d’armes létaux autonomes. « Le département de la Guerre est en accord avec ces principes, les reflète dans ses lois et politiques, et nous les avons inscrits dans notre accord », a précisé Sam Altman.
La différence de méthode entre les deux entreprises explique le résultat. Le patron d’OpenAI a entamé les négociations mercredi, en acceptant d’emblée le principe d’un usage « à toutes fins légales » tout en négociant l’intégration technique des garde-fous dans les systèmes d’OpenAI, là où Anthropic avait tenté d’imposer des restrictions contractuelles, provoquant l’hostilité du Pentagone. Les contraintes acceptées par les deux parties s’alignent sur le droit américain en vigueur et les politiques existantes du Pentagone, sans créer de précédents juridiques nouveaux.
L’accord prévoit également qu’une partie du personnel d’OpenAI pourra travailler directement avec les équipes gouvernementales sur des projets classifiés pour « aider avec nos modèles et assurer leur sécurité », selon Sam Altman. OpenAI développera par ailleurs des garde-fous techniques intégrés pour s’assurer que ses modèles fonctionnent conformément aux usages prévus. C’est une disposition réclamée par le Pentagone.
Anthropic annonce une action en justice
Alors qu’OpenAI signait son accord, Anthropic annonçait son intention d’attaquer le Pentagone en justice après sa mise sur liste noire par Pete Hegseth, le secrétaire à la Défense. La désignation d’Anthropic comme « risque pour la chaîne d’approvisionnement en matière de sécurité nationale » avait formellement exclu l’entreprise de tout contrat gouvernemental et contraint ses partenaires commerciaux dans le secteur de la défense à rompre tout lien avec elle.
OpenAI n’est pas seul à bénéficier du vide laissé par Anthropic : Google et xAI d’Elon Musk disposent déjà de contrats avec le département de la Défense, ce dernier ayant cette semaine obtenu un accord pour déployer sa technologie sur des systèmes classifiés. Sam Altman a par ailleurs indiqué souhaiter que les termes de son accord avec le Pentagone s’appliquent à l’ensemble des laboratoires d’IA.