OpenAI a lancé aujourd’hui GPT-5.4 mini et nano, ses modèles d’intelligence artificielle compacts les plus performants pour les travaux où la latence et le coût priment sur la taille. Ces deux modèles apportent une partie des fonctions de GPT-5.4 dans des architectures optimisées pour la réactivité et l’efficacité énergétique.

GPT‑5.4 mini et nano sont disponibles
GPT-5.4 mini fait mieux que la génération précédente (GPT-5 mini) en codage, raisonnement, compréhension multimodale et utilisation d’outils, tout en tournant plus de deux fois plus vite. Le modèle s’approche des performances de GPT-5.4 sur plusieurs tests clés, notamment SWE-Bench Pro et OSWorld-Verified. GPT-5.4 nano est le plus petit et le moins cher des modèles GPT-5.4, pensé pour les tâches où la rapidité et le coût prime : classification, extraction de données, classement et subagents de codage pour les tâches de support simples.
Ces modèles répondent à une évolution majeure de l’approche d’OpenAI : au lieu d’un modèle monolithique gérant toutes les tâches, les développeurs peuvent désormais composer des systèmes où les grands modèles pilotent et les petits exécutent vite à grande échelle. GPT-5.4 mini est présenté comme « le plus puissant modèle mini jamais conçu » pour ce type d’architecture.
L’exemple donné est Codex, le système d’OpenAI tout particulièrement utile pour coder. Un modèle comme GPT-5.4 peut gérer la planification, la coordination et le jugement final, tout en déléguant les autres tâches à des agents plus petits comme GPT-5.4 mini, chacun traitant rapidement une portion du travail : recherche dans une base de données, relecture d’un fichier volumineux ou traitement de documents de support.
Des performances qui sont en hausse
Sur les benchmarks pour coder, GPT-5.4 mini surpasse systématiquement GPT-5 mini à latences comparables et approche les taux de GPT-5.4 tout en tournant beaucoup plus vite. Sur SWE-Bench Pro, GPT-5.4 mini affiche 54,4 % de précision contre 45,7 % pour GPT-5 mini et 57,7 % pour GPT-5.4. Sur Terminal-Bench 2.0, il atteint 60,0 % contre 38,2 % pour son prédécesseur.

GPT-5.4 mini brille aussi sur les tâches multimodales, notamment l’utilisation de l’ordinateur. Il interprète rapidement les captures d’écran d’interfaces denses pour compléter des tâches complexes. Sur OSWorld-Verified, GPT-5.4 mini approche GPT-5.4 (72,1 % vs 75,0 %) tout en surpassant largement GPT-5 mini (42 %).
Plusieurs prix disponibles
GPT-5.4 mini est disponible dès aujourd’hui dans l’API, Codex et ChatGPT. Via l’API, il supporte le texte et l’image, l’appel d’outils, l’appel de fonctions, la recherche Web, la recherche de fichiers, l’utilisation de l’ordinateur et les skills. Il dispose d’une fenêtre de contexte de 400 000 tokens au prix de 0,75 $ par million de tokens d’entrée et 4,50 $ par million de tokens de sortie.
Dans Codex, GPT-5.4 mini consomme 30 % du quota de GPT-5.4, permettant aux développeurs de traiter les tâches simples de codage pour environ un tiers du coût. Codex peut aussi déléguer à des agents compacts comme GPT-5.4 mini pour exécuter le travail moins intensif en raisonnement sur le modèle moins cher.
Dans ChatGPT, GPT-5.4 mini est accessible aux utilisateurs gratuits et avec l’abonnement Go via la fonction « Réflexion » du menu +. Pour tous les autres utilisateurs, il est disponible en secours quand ils atteignent la limitation de GPT-5.4 Thinking.
GPT-5.4 nano n’est disponible que via l’API et coûte 0,20 $ par million de tokens d’entrée et 1,25 $ par million de tokens de sortie.