OpenAI a dévoilé GPT-5.4-Cyber, une variante de son modèle GPT-5.4 spécifiquement entraînée pour les usages de cybersécurité défensive. Son accès est réservé à des professionnels vérifiés et sa diffusion reste délibérément restreinte. Cela arrive quelques jours à peine après le lancement de Claude Mythos, un modèle d’intelligence artificielle d’Anthropic là aussi pour la cybersécurité.

GPT‑5.4‑Cyber mise sur la cybersécurité
GPT-5.4-Cyber se distingue de son modèle parent par deux caractéristiques principales : des restrictions de capacité allégées pour les cas d’usage légitimes et de nouvelles fonctionnalités dédiées aux workflows défensifs avancés. La plus notable est la rétro-ingénierie binaire qui permet à des experts en sécurité d’analyser des logiciels compilés pour y détecter des logiciels malveillants, des vulnérabilités ou des failles de sécurité, sans avoir accès au code source. Le modèle est plus permissif que la version grand public sur les sujets cyber, tout en restant encadré.
OpenAI présente ce modèle comme une étape préparatoire avant le déploiement de systèmes encore plus capables d’ici la fin de l’année. Le déploiement initial cible des spécialistes en sécurité, des entreprises et des chercheurs qui ont fait l’objet de contrôles au préalable.
Ce lancement s’inscrit dans une version élargie du programme Trusted Access for Cyber, initié par OpenAI plus tôt cette année. L’accès se fait par deux voies : vérification individuelle sur chatgpt.com/cyber ou demande d’accès en équipe via un représentant OpenAI pour les entreprises, réservée au niveau le plus élevé d’utilisateurs prêts à s’authentifier comme défenseurs.
OpenAI n’est pas seul sur ce terrain. Anthropic a récemment limité la diffusion de Claude Mythos à une quarantaine d’organisations gérant des infrastructures critiques, parmi lesquelles Apple, Amazon, Microsoft, Google et la Linux Foundation. Les deux entreprises adoptent la même logique : des modèles cyber-permissifs, mais distribués sous contrôle strict, pour écarter tout risque d’usage offensif. Dans le cas de Claude Mythos, plusieurs failles de sécurité (dont certaines majeures) ont déjà été trouvées par le modèle d’IA. À voir si GPT‑5.4‑Cyber saura en faire autant.