KultureGeek Internet OpenAI (ChatGPT) dévoile gpt-oss, des modèles d’IA open source

OpenAI (ChatGPT) dévoile gpt-oss, des modèles d’IA open source

5 Août. 2025 • 19:55
0

OpenAI, responsable de ChatGPT, marque un tournant stratégique en dévoilant gpt-oss-120b et gpt-oss-20b, deux grands modèles de langage (LLM) open source. Ce sont deux modèles de raisonnement pour l’intelligence artificielle et les premiers à être ouverts depuis GPT-2 qui remonte à 2019.

ChatGPT OpenAI Logos

Deux modèles adaptés à différents usages

La stratégie d’OpenAI mise sur la diversité des besoins utilisateurs. Le modèle gpt-oss-120b, plus volumineux et performant, fonctionne sur une seule carte graphique Nvidia. La version gpt-oss-20b, plus lègère, peut tourner sur un ordinateur portable standard équipé de 16 Go de RAM.

Cette approche permet d’adresser aussi bien les utilisateurs disposant de ressources limitées que ceux ayant accès à des ordinateurs plus puissants. OpenAI qualifie ces modèles de dernière génération selon plusieurs critères de comparaison des modèles ouverts.

L’originalité de cette approche réside dans la capacité des modèles ouverts à communiquer avec les modèles propriétaires d’OpenAI dans le cloud. Lorsque les modèles locaux atteignent leurs limites, notamment pour le traitement d’images, ils peuvent automatiquement faire appel aux solutions plus performantes de l’entreprise.

Cette stratégie hybride offre une flexibilité aux utilisateurs tout en préservant les revenus d’OpenAI sur ses modèles les plus avancés.

Un revirement sous la pression concurrentielle

Cette décision marque une rupture avec la philosophie récente d’OpenAI, qui privilégiait une approche propriétaire et fermée depuis plusieurs années. Cette stratégie avait permis à l’entreprise de créer un modèle économique solide en vendant l’accès à ses modèles via une API aux entreprises et développeurs.

Sam Altman, patron d’OpenAI, avait reconnu en janvier que son entreprise s’était trouvée « du mauvais côté de l’histoire » concernant le côté open source de ses technologies. Cette autocritique révèle une prise de conscience face à la montée en puissance des entreprises chinoises pour l’IA, notamment DeepSeek, Qwen d’Alibaba et Moonshot AI, qui ont développé certains des modèles ouverts les plus performants.

Des performances prometteuses… et des hallucinations

Les premiers benchmarks révèlent des résultats encourageants pour les nouveaux modèles d’OpenAI. Sur Codeforces, un test de programmation compétitive, gpt-oss-120b obtient un score de 2 622 points tandis que gpt-oss-20b atteint 2 516 points. Ces performances surpassent le modèle R1 de DeepSeek tout en restant inférieures aux modèles o3 et o4-mini d’OpenAI.

OpenAI gpt-oss Benchmark Codeforces

Le test sur Humanity’s Last Exam, un test complexe couvrant diverses disciplines, donne des résultats plus modestes. Le modèle gpt-oss-120b obtient 19 % de réussite contre 17,3 % pour son petit frère. Ces scores, bien qu’inférieurs à o3, dépassent néanmoins les modèles ouverts concurrents de DeepSeek et Qwen.

OpenAI gpt-oss Benchmark Codeforces Humanity Last Exam

Paradoxalement, les modèles ouverts d’OpenAI souffrent d’un taux d’hallucinations significativement plus élevé que leurs homologues propriétaires. Sur PersonQA, le benchmark interne d’OpenAI mesurant la précision des connaissances sur les personnalités, gpt-oss-120b et gpt-oss-20b affichent respectivement 49 % et 53 % d’hallucinations.

Ces chiffres contrastent fortement avec les 16 % du modèle o1 et les 36 % d’o4-mini. OpenAI explique ce phénomène par la taille réduite de ces modèles, qui disposent de moins de connaissances que les modèles de pointe et tendent naturellement à halluciner davantage.

Une architecture technique sophistiquée

Les nouveaux modèles d’OpenAI bénéficient d’une architecture mixture-of-experts (MoE) qui optimise l’utilisation des paramètres. Pour gpt-oss-120b, doté de 117 milliards de paramètres au total, seuls 5,1 milliards sont activés par token, garantissant une efficacité de calcul optimale.

L’entraînement de ces modèles repose sur un apprentissage par renforcement haute performance, processus similaire à celui utilisé pour les modèles o d’OpenAI. Cette méthode permet aux modèles de développer un processus de chaîne de pensée comparable, prenant le temps nécessaire pour élaborer leurs réponses.

En outre, grâce à leur processus d’entraînement avancé, ces modèles excellent dans le pilotage d’agents IA. Ils peuvent appeler des outils externes comme la recherche Web ou l’exécution de code Python dans leur processus de raisonnement. Cependant, ils restent limités au texte et ne peuvent traiter ni images ni audio, contrairement aux autres modèles d’OpenAI.

Cette spécialisation textuelle représente un compromis assumé entre performance et polyvalence, permettant une optimisation ciblée sur les tâches de raisonnement pur.

Une licence permissive pour l’adoption commerciale

OpenAI a choisi la licence Apache 2.0 pour ces modèles, considérée comme l’une des plus permissives du secteur. Cette décision autorise les entreprises à monétiser ces modèles sans autorisation préalable ni redevance, favorisant une adoption large.

Néanmoins, contrairement aux approches totalement ouvertes d’autres groupes comme AI2, OpenAI ne publiera pas les données d’entraînement utilisées pour créer ces modèles. Cette réserve maintient un certain contrôle sur la reproduction exacte de la technologie tout en offrant une liberté d’usage commerciale.

Les modèles gpt-oss-120b et gpt-oss-20b sont disponibles gratuitement au téléchargement sur GitHub et Hugging Face (120b et 20b)

Les sujets liés à ces tags pourraient vous interesser

Laisser un commentaire

Sauvegarder mon pseudo et mon adresse e-mail pour la prochaine fois.

Quelques règles à respecter :
  • 1. Restez dans le sujet de l'article
  • 2. Respectez les autres lecteurs : pas de messages agressifs, vulgaires, haineux,…
  • 3. Relisez-vous avant de soumettre un commentaire : pas de langage SMS, et vérifiez l'orthographe avant de valider (les navigateurs soulignent les fautes).
  • 4. En cas d'erreur, faute d'orthographe, et/ou omission dans l'article , merci de nous contacter via la page Contact.

Nous nous réservons le droit de supprimer les commentaires qui ne respectent pas ces règles


Les derniers articles

Nvidia CEO huang

Nvidia continue de surfer sur la vague de l’IA avec des résultats records

28 Août. 2025 • 10:55
0 Hors-Sujet

Nvidia continue de surfer sur la vague de l’IA Nvidia a une nouvelle fois confirmé son statut de leader technologique en publiant des...

Samsung Logo

Samsung annoncera ses Galaxy S25 FE et Galaxy Tab S11 le 4 septembre

28 Août. 2025 • 9:40
0 Mobiles / Tablettes

Samsung annonce la tenue d’une nouvelle conférence Galaxy pour le 4 septembre. Ce sera l’occasion de découvrir le Galaxy S25 FE...

WhatsApp Fonction IA Reformulation Messages

WhatsApp lance une fonction d’IA pour reformuler vos messages

27 Août. 2025 • 22:40
4 Applications

WhatsApp a annoncé le lancement d’une nouvelle fonctionnalité d’intelligence artificielle nommée « Writing Help...

Windows 11 Logo PC Portable

Windows 11 : l’audio en Bluetooth s’améliore pour les jeux et les appels

27 Août. 2025 • 20:51
0 Actu OS

Microsoft répond aux critiques concernant la mauvaise qualité audio des casques Bluetooth en intégrant une nouvelle...

Spot

Boston Dynamics : le robot Spot parvient à effectuer sept saltos arrière successifs

27 Août. 2025 • 19:33
0 Science

Spot exécute sept salto arrière successifs grâce à l’apprentissage par renforcement Boston Dynamics vient de frapper fort...

Les dernières actus Apple sur iPhoneAddict :

Comparateur

Recherchez le meilleur prix des produits Hi-tech

Recherche

Recherchez des articles sur le site