TENDANCES
Comparateur
- AUTO
DeepSeek vient de présenter DeepSeek-V3.2. Ce nouveau modèle open source d’intelligence artificielle parvient à égaler les performances des GPT-5 d’OpenAI et Gemini 3 Pro de Google sur des tests clés, marquant une avancée significative.

Pour concevoir cette version, les ingénieurs ont ciblé trois faiblesses récurrentes des modèles ouverts actuels :
La réponse technique réside dans une nouvelle architecture d’attention baptisée DeepSeek Sparse Attention (DSA). Contrairement aux modèles standards qui revérifient chaque élément précédent pour générer une réponse, le DSA utilise un système d’indexation pour n’identifier que les parties essentielles de l’historique. Cette méthode réduit drastiquement les coûts de calcul sans sacrifier la qualité.
L’autre levier majeur est financier et stratégique. DeepSeek a massivement augmenté les ressources allouées au post-entraînement, cette phase critique d’alignement et d’apprentissage par renforcement. Ce budget dépasse désormais 10 % des coûts initiaux de pré-entraînement, contre environ 1 % il y a deux ans. Pour nourrir cette machine, l’équipe a généré des données via des modèles spécialisés en mathématiques et programmation, tout en créant plus de 1 800 environnements synthétiques basés sur des problèmes réels issus de GitHub.
Les résultats pour les benchmarks de DeepSeek-V3.2 confirment la pertinence de cette approche. Lors de la compétition de mathématiques AIME 2025, DeepSeek-V3.2 a obtenu un score de 93,1 %, talonnant GPT-5 (High) d’OpenAI et ses 94,6 %. Sur le terrain de la programmation via LiveCodeBench, il atteint 83,3 %, juste derrière les 84,5 % de son rival américain. Si Gemini 3 Pro conserve la tête sur ces données, l’écart se resserre dangereusement.
Le modèle chinois prend même l’avantage sur certains terrains complexes. Sur le test SWE Multilingual, qui évalue le développement logiciel à partir de problèmes concrets, DeepSeek-V3.2 résout 70,2 % des cas, surpassant les 55,3 % de GPT-5. Il domine également ce dernier sur Terminal Bench 2.0, prouvant ses capacités supérieures pour les tâches d’agents autonomes, bien qu’il reste derrière l’IA de Google.
🏆 World-Leading Reasoning
🔹 V3.2: Balanced inference vs. length. Your daily driver at GPT-5 level performance.
🔹 V3.2-Speciale: Maxed-out reasoning capabilities. Rivals Gemini-3.0-Pro.
🥇 Gold-Medal Performance: V3.2-Speciale attains gold-level results in IMO, CMO, ICPC World… pic.twitter.com/ZFGzDMshBy— DeepSeek (@deepseek_ai) December 1, 2025
En parallèle, DeepSeek a lancé une version nommée DeepSeekV3.2-Speciale. Débridée des restrictions de longueur pour les chaînes de raisonnement, elle a décroché une médaille d’or à l’Olympiade internationale d’informatique 2025 (10e place). Cependant, cette puissance a un coût prohibitif : la résolution de problèmes complexes nécessite en moyenne 77 000 tokens, contre seulement 22 000 pour Gemini.
Malgré ces prouesses, DeepSeek admet accuser encore un retard face aux modèles commerciaux de pointe dans trois domaines :
Disponible dès maintenant sur Hugging Face et via l’API, cette sortie place néanmoins DeepSeek au centre de la guerre des prix, offrant une alternative économique crédible pour les flux de travail basés sur des agents IA.
Face à une concurrence qui s’intensifie dangereusement, Sam Altman, le patron d’OpenAI, a décrété une «...
Amazon Prime Video a décidé de supprimer un doublage généré par intelligence artificielle pour l’anime Banana...
Bouygues Telecom annonce aujourd’hui le lancement d’un nouveau forfait B&You qui intègre un abonnement Deezer Premium. Cela va donc...
YouTube répond aux attentes de sa communauté en lançant Recap, un outil d’analyse annuel directement inspiré du...
Nouvelle cyberattaque en France, avec Leroy Merlin qui annonce avoir été piraté, entraînant le vol des données des...