Avec Project Glasswing, Anthropic ne lance pas un simple outil de cybersécurité, mais un dispositif destiné aux grands groupes. Au cœur du programme, Claude Mythos doit repérer des failles de sécurité critiques et aider à les corriger avec un niveau d’autonomie que le concurrent d’OpenAI (ChatGPT) assume ouvertement.

Claude Mythos va aider pour la cybersécurité
Le choix le plus marquant ne tient pas seulement à la technologie, mais à sa distribution. Anthropic réserve l’accès à la version test de Claude Mythos à un groupe limité de partenaires, parmi lesquels Nvidia, Google, Amazon Web Services (AWS), Apple, Microsoft, JPMorgan Chase, Broadcom, Cisco, CrowdStrike, la Linux Foundation et Palo Alto Networks, ainsi qu’une quarantaine d’autres organisations qui maintiennent ou développent des infrastructures logicielles. L’entreprise écarte pour l’instant toute diffusion publique, au nom d’un risque évident : offrir les mêmes capacités à des acteurs malveillants reviendrait à leur fournir un détecteur de points faibles prêt à l’emploi pour pirater telle ou telle plateforme.
Anthropic présente ce modèle comme un accélérateur pour les défenseurs. Ses partenaires doivent l’utiliser pour analyser leurs systèmes, repérer les vulnérabilités les plus sensibles et contribuer à leur correction avant qu’elles ne soient exploitées.
Claude Mythos n’a pourtant pas été entraîné spécifiquement pour la cybersécurité. Anthropic attribue les performances ses « solides capacités agentiques de codage et de raisonnement », une formulation qui place le modèle IA dans une logique plus large d’automatisation technique que dans celle d’un produit spécialisé.

L’entreprise avance des résultats déjà massifs. Selon elle, Claude Mythos a signalé ces dernières semaines « des milliers de vulnérabilités de haute gravité, y compris dans chaque grand système d’exploitation et navigateur Web majeur ». Anthropic ajoute que le modèle a identifié ces failles et « a développé de nombreux exploits associés, entièrement de manière autonome, sans aucun pilotage humain ».
Cette autonomie constitue le cœur du pari, mais aussi son principal point de tension. Le programme est présenté comme défensif, tout en reposant sur un modèle IA capable non seulement de détecter des failles de sécurité, mais aussi de produire les moyens techniques de les exploiter.
Un programme de sécurité qui peut aussi devenir un produit
Pour accélérer l’adoption, Anthropic finance largement le démarrage. L’entreprise prévoit jusqu’à 100 millions de dollars de crédits d’usage et 4 millions de dollars de dons directs à la Fondation Linux et à l’Apache Software Foundation.
Ce montage dessine aussi une perspective commerciale. Anthropic indique qu’à long terme, alors que les entreprises d’IA subissent une pression croissante pour devenir rentables, Project Glasswing pourrait évoluer vers un service payant et ouvrir une nouvelle source de revenus, à condition que les entreprises continuent à y voir un intérêt concret.
L’initiative prend enfin une dimension politique. Malgré son affrontement public récent avec l’administration Trump, Anthropic affirme mener des discussions en cours avec des responsables du gouvernement américain au sujet de Claude Mythos et de ses capacités cyber offensives et défensives. Autrement dit, l’entreprise présente déjà ce modèle IA non seulement comme un outil pour les grands comptes, mais aussi comme un système possible de souveraineté opérationnelle.