Google estime avoir intercepté un tournant majeur dans la cybercriminalité. Selon ses chercheurs du groupe Threat Intelligence Group, un groupe de hackers s’est servi de l’intelligence artificielle pour découvrir puis exploiter une faille de sécurité de type zero-day dans un outil largement utilisé pour administrer des systèmes informatiques.

L’entreprise dit avoir un niveau de confiance élevé dans le rôle joué par l’IA. Elle affirme que cette technologie a servi à la fois à identifier la vulnérabilité et à en faire un exploit prêt à l’emploi pour une campagne plus large.
Google garde toutefois sous silence plusieurs éléments clés. Le groupe criminel, le logiciel visé et le modèle de langage utilisé n’ont pas été nommés, même si les chercheurs précisent qu’ils ne pensent pas que l’exploit ait été produit avec Mythos d’Anthropic ni avec Gemini.
La faille permettait de contourner la double authentification
La vulnérabilité pouvait être utilisée pour contourner l’authentification multi-facteur, souvent ajoutée à un mot de passe pour empêcher les intrusions dans les systèmes sensibles.
Dans ce cas, le but était d’obtenir un accès aux réseaux internes des entreprises utilisant cet outil d’administration. Or ce type de logiciel sert souvent à gérer à distance des serveurs, des sites, des applications, des paramètres de sécurité, des comptes employés et leurs permissions d’accès.
Autrement dit, l’impact potentiel dépassait très largement un simple compte compromis. Une telle brèche aurait pu ouvrir la porte à des environnements critiques dans des entreprises, des administrations et d’autres structures exposées.
Google dit avoir alerté l’éditeur du logiciel avant toute exploitation réelle contre les utilisateurs. Le problème a été corrigé à temps, ce qui a empêché l’attaque préparée d’être déployée à grande échelle.
Google y voit la preuve que l’IA offensive est déjà là
Le groupe criminel prévoyait, selon Google, un événement d’exploitation de masse. L’entreprise estime que sa découverte proactive a peut-être suffi à bloquer l’opération avant son lancement.
Cette affaire donne un relief concret à un risque dont le secteur parle depuis des mois. Google considère désormais que l’usage offensif de l’IA par des hackers n’est plus une hypothèse de laboratoire, mais une menace déjà observable sur le terrain.
Le contexte renforce encore ce point de vue. En avril, Anthropic expliquait ne pas vouloir diffuser largement son modèle Mythos à cause des risques liés à son aptitude à repérer et exploiter des failles logicielles, et depuis, les autorités américaines ont commencé à traiter plus directement la question de l’usage malveillant des grands modèles de langage.
Il ne s’agit plus seulement de savoir si l’IA pourrait aider des pirates un jour, mais de constater qu’elle peut déjà servir à accélérer la découverte de failles critiques et à préparer des attaques contre des cibles réelles.