KultureGeek Internet Le français Mistral AI lance Mistral 3, de nouveaux modèles IA open source performants

Le français Mistral AI lance Mistral 3, de nouveaux modèles IA open source performants

3 Déc. 2025 • 9:26
2

Mistral AI, l’entreprise française d’intelligence artificielle, annonce aujourd’hui le lancement de Mistral 3, sa nouvelle famille de modèles de langage. Cette génération inclut trois modèles compacts ainsi qu’une version majeure nommée Mistral Large 3. L’annonce a lieu peu de temps après la présentation de GPT-5.1 d’OpenAI, Gemini 3 de Google, Claude Opus 4.5 d’Anthropic ou encore DeepSeek-V3.2.

Mistral AI Logo

Mistral Large 3 : puissance et open source

Le fer de lance de cette annonce, Mistral Large 3, marque une évolution significative dans les capacités de pré-entraînement de la société. Il s’agit d’un modèle Mixture-of-Experts (MoE) clairsemé, le premier du genre depuis la famille Mixtral. Entraîné à partir de zéro sur 3 000 GPU Nvidia H200, il totalise 675 milliards de paramètres, dont 41 milliards sont actifs lors de l’inférence.

Ce modèle rivalise avec les meilleures solutions open-weight actuelles. Il démontre des compétences avancées en compréhension d’images et excelle dans les conversations multilingues, particulièrement en dehors du couple anglais-chinois. Sur le classement LMArena, il fait ses débuts à la deuxième place dans la catégorie des modèles open source sans raisonnement.

Mistral 3 Benchmarks

Mistral 3 Benchmarks 2

Bien que les versions de base et d’instruction soient disponibles immédiatement pour permettre la personnalisation en entreprise, une variante axée sur le raisonnement est prévue prochainement.

Pour garantir une accessibilité maximale, Mistral a collaboré étroitement avec Nvidia, Red Hat et vLLM. Ce partenariat a permis une co-conception logicielle et matérielle approfondie :

  • Formats optimisés : un point de contrôle au format NVFP4, conçu avec llm-compressor, est disponible pour une exécution efficace.
  • Compatibilité serveur : Mistral Large 3 peut tourner sur un nœud unique 8×A100 ou 8×H100, ainsi que sur les systèmes Blackwell NVL72.
  • Intégration technique : Nvidia a intégré un support de pointe avec Blackwell et prend en charge l’inférence efficace via TensorRT-LLM pour toute la famille Mistral 3.

Ces efforts permettent aux développeurs de gérer des charges de travail à haut débit et à long contexte, du data center jusqu’aux robots.

Ministral 3 avec de l’efficacité et du raisonnement

Pour les cas d’usage locaux et Edge, l’entreprise propose la famille de modèles Ministral 3. Elle se décline en trois tailles de paramètres : 3B, 8B et 14B. Contrairement au modèle Large, ces versions denses sont d’ores et déjà proposées en trois variantes : base, instruction et raisonnement.

La gamme Ministral vise le meilleur rapport performance-coût du marché. Dans des conditions réelles, ces modèles égalent ou surpassent leurs concurrents tout en générant souvent beaucoup moins de tokens, ce qui accroît leur efficacité.

La variante de raisonnement de 14 milliards de paramètres illustre cette performance en atteignant 85 % sur le benchmark AIME ’25. Ces modèles intègrent également des capacités natives de compréhension d’image, offrant une solution complète pour les besoins des développeurs.

Les sujets liés à ces tags pourraient vous interesser

2 commentaires pour cet article :

Laisser un commentaire

Sauvegarder mon pseudo et mon adresse e-mail pour la prochaine fois.

Quelques règles à respecter :
  • 1. Restez dans le sujet de l'article
  • 2. Respectez les autres lecteurs : pas de messages agressifs, vulgaires, haineux,…
  • 3. Relisez-vous avant de soumettre un commentaire : pas de langage SMS, et vérifiez l'orthographe avant de valider (les navigateurs soulignent les fautes).
  • 4. En cas d'erreur, faute d'orthographe, et/ou omission dans l'article , merci de nous contacter via la page Contact.

Nous nous réservons le droit de supprimer les commentaires qui ne respectent pas ces règles


Les derniers articles

Micron

Micron garde le marché grand public dans sa lige de mire malgré l’arrêt de Crucial

15 Jan. 2026 • 11:15
0 Matériel

L’annonce avait semé le doute chez de nombreux consommateurs : début décembre, Micron confirmait le retrait de sa marque...

Grok

Face à la pression, xAI restreint (encore) Grok sur l’édition d’images dénudées

15 Jan. 2026 • 9:45
0 Internet

Face à la pression de plusieurs pays et des régulateurs, xAI a annoncé il y a quelques heures une série de mesures visant...

God of War Ragnarok

God of War : la série d’Amazon a trouvé l’acteur qui incarnera Kratos

14 Jan. 2026 • 22:40
0 Geekeries

Amazon MGM Studios et Sony Pictures Television ont choisi Ryan Hurst pour prêter ses traits à Kratos dans la future série God of War...

Amazon Prime Video M6 Plus

Amazon Prime Video se met à proposer M6+

14 Jan. 2026 • 22:17
0 Hors-Sujet

À partir d’aujourd’hui, l’ensemble des membres Amazon Prime en France peuvent accéder gratuitement à M6+ sur Prime...

Grok Icone Logo

Deepfakes sexuels par l’IA Grok : la Californie ouvre une enquête contre xAI

14 Jan. 2026 • 20:55
0 Internet

La justice californienne passe à l’offensive contre l’intelligence artificielle Grok. Le procureur général...

Les dernières actus Apple sur iPhoneAddict :

Comparateur

Recherchez le meilleur prix des produits Hi-tech

Recherche

Recherchez des articles sur le site