OpenAI lance son intelligence artificielle Daybreak pour faire entrer la cybersécurité dans le développement même des logiciels, au lieu de la traiter seulement après coup. L’initiative se pose comme une réponse directe aux efforts d’Anthropic qui propose déjà Claude Mythos, avec une promesse centrée sur la détection et la correction des failles de sécurité avant leur exploitation par des hackers.

Daybreak pour trouver les failles de sécurité
OpenAI présente son IA Daybreak comme une extension logique de GPT-5.4-Cyber, lancé en avril. Le créateur de ChatGPT affirme que cet outil a déjà contribué à corriger plus de 3 000 failles de sécurité, ce qui lui sert désormais de base pour créer une offre plus large à destination des entreprises.
Au cœur du dispositif, Daybreak combine les modèles d’OpenAI, Codex utilisé comme infrastructure agentique et un ensemble de partenaires mobilisés autour de la sécurité. L’objectif est de mettre en place dans la boucle quotidienne de développement des fonctions comme la revue de code sécurisée, la modélisation des menaces, la validation des correctifs, l’analyse des dépendances, la détection et les conseils de remédiation.
Le fonctionnement repose d’abord sur Codex Security. L’outil est capable de bâtir un modèle de menace modifiable à partir du dépôt logiciel d’une entreprise, puis d’automatiser la surveillance des vulnérabilités jugées les plus risquées. Quand un problème est détecté, il peut être analysé dans un environnement isolé. OpenAI propose aussi aux entreprises de demander une évaluation de Daybreak incluant un scan de vulnérabilités. En revanche, il n’y a pas d’informations sur le prix.
Sam Altman, patron d’OpenAI, explique vouloir travailler avec le plus grand nombre possible d’entreprises pour sécuriser leurs logiciels en continu grâce à l’IA. Ce positionnement intervient alors que plusieurs grands groupes ont déjà adopté Claude Mythos d’Anthropic, dont Apple, Microsoft, Google et Amazon.
Trois niveaux d’accès en place
OpenAI accompagne ce lancement d’une offre en trois modèles. GPT-5.5 conserve des garde-fous standards pour un usage généraliste, tandis que GPT-5.5 avec Trusted Access for Cyber vise un travail défensif vérifié dans des environnements autorisés.
Au-dessus, GPT-5.5-Cyber cible des usages spécialisés autorisés avec des exigences plus fortes en matière de vérification et de contrôles au niveau du compte. Cette hiérarchie montre qu’OpenAI cherche à avancer sur la cybersécurité sans ouvrir indistinctement les capacités les plus sensibles.
L’entreprise précise enfin qu’elle travaille avec des partenaires industriels et gouvernementaux avant le déploiement de modèles IA cyber encore plus avancés. Daybreak se veut donc le début d’un cadre plus large pour encadrer l’usage défensif de l’IA en cybersécurité.