L’administration Trump resserre le contrôle sur l’intelligence artificielle en obtenant un accès anticipé aux futurs modèles de Google DeepMind, Microsoft et xAI. Derrière un discours longtemps présenté comme peu régulateur, les États-Unis installent en réalité un dispositif de test en amont fondé sur la sécurité nationale et sur un examen technique plus agressif des systèmes les plus avancés.

Le pivot passe par le Center for AI Standards and Innovation (CAISI), rattaché au département du Commerce. Cette structure doit recevoir les nouveaux modèles IA des trois entreprises avec des garde-fous allégés, voire désactivés, afin de mesurer plus directement leurs capacités et leurs risques dans les domaines jugés sensibles.
Chris Fall, directeur du CAISI, résume la logique du dispositif : « Une science de la mesure indépendante et rigoureuse est essentielle pour comprendre l’IA et ses implications en matière de sécurité nationale. Ces collaborations renforcées avec l’industrie nous aident à faire monter en puissance notre travail au service de l’intérêt public à un moment critique ».
Un contrôle avant même la sortie publique des IA
Ce tour de vis s’inscrit dans une réflexion plus large à la Maison Blanche. Au 4 mai, l’exécutif étudiait encore la création d’un groupe de travail chargé de superviser les futurs modèles et capable d’en examiner certains avant leur mise à disposition du public.
À première vue, cette orientation tranche avec la trajectoire plus laissez-faire mise en avant dans l’AI Action Plan. Mais cela suggère plutôt une continuité : Donald Trump ne chercherait pas à laisser le secteur totalement libre, mais à le soumettre à un cadre de contrôle compatible avec ses priorités stratégiques.
Le cas Anthropic sert ici d’exemple. Le différend entre l’entreprise et le Pentagone est l’illustration d’une administration qui accepte mal les garde-fous susceptibles de limiter certains usages sécuritaires ou militaires de l’IA.
Le précédent Anthropic rend le virage plus lisible
Le département de la Défense a cherché à faire qualifier Anthropic de risque pour la chaîne d’approvisionnement après que l’entreprise a insisté sur des protections destinées à empêcher l’usage de sa technologie dans la surveillance de masse et les armes autonomes. Cette logique est déjà visible dans un décret signé par Donald Trump le jour même de l’annonce de son AI Action Plan.
Le 21 janvier 2025, Donald Trump a annulé un décret de Joe Biden qui imposait aux entreprises de transmettre certaines données sur leurs modèles au gouvernement fédéral. Le nouveau cadre ne ressemble donc pas à une simple reprise du dispositif précédent, mais à une tentative de reprendre la main autrement, avec davantage de pouvoir sur les tests en amont.
Début avril, Anthropic a d’ailleurs repoussé le lancement de son modèle Mythos en expliquant qu’il pouvait exposer de nombreuses failles de sécurité dans des programmes et systèmes d’exploitation. La NSA a déjà obtenu l’accès au modèle et poursuit actuellement ses propres tests, signe que la logique d’examen anticipé dépasse désormais le seul cadre théorique.