KultureGeek Internet Le français Mistral AI lance Mistral 3, de nouveaux modèles IA open source performants

Le français Mistral AI lance Mistral 3, de nouveaux modèles IA open source performants

4 min.
3 Déc. 2025 • 9:26
2

Mistral AI, l’entreprise française d’intelligence artificielle, annonce aujourd’hui le lancement de Mistral 3, sa nouvelle famille de modèles de langage. Cette génération inclut trois modèles compacts ainsi qu’une version majeure nommée Mistral Large 3. L’annonce a lieu peu de temps après la présentation de GPT-5.1 d’OpenAI, Gemini 3 de Google, Claude Opus 4.5 d’Anthropic ou encore DeepSeek-V3.2.

Mistral AI Logo

Mistral Large 3 : puissance et open source

Le fer de lance de cette annonce, Mistral Large 3, marque une évolution significative dans les capacités de pré-entraînement de la société. Il s’agit d’un modèle Mixture-of-Experts (MoE) clairsemé, le premier du genre depuis la famille Mixtral. Entraîné à partir de zéro sur 3 000 GPU Nvidia H200, il totalise 675 milliards de paramètres, dont 41 milliards sont actifs lors de l’inférence.

Ce modèle rivalise avec les meilleures solutions open-weight actuelles. Il démontre des compétences avancées en compréhension d’images et excelle dans les conversations multilingues, particulièrement en dehors du couple anglais-chinois. Sur le classement LMArena, il fait ses débuts à la deuxième place dans la catégorie des modèles open source sans raisonnement.

Mistral 3 Benchmarks

Mistral 3 Benchmarks 2

Bien que les versions de base et d’instruction soient disponibles immédiatement pour permettre la personnalisation en entreprise, une variante axée sur le raisonnement est prévue prochainement.

Pour garantir une accessibilité maximale, Mistral a collaboré étroitement avec Nvidia, Red Hat et vLLM. Ce partenariat a permis une co-conception logicielle et matérielle approfondie :

  • Formats optimisés : un point de contrôle au format NVFP4, conçu avec llm-compressor, est disponible pour une exécution efficace.
  • Compatibilité serveur : Mistral Large 3 peut tourner sur un nœud unique 8×A100 ou 8×H100, ainsi que sur les systèmes Blackwell NVL72.
  • Intégration technique : Nvidia a intégré un support de pointe avec Blackwell et prend en charge l’inférence efficace via TensorRT-LLM pour toute la famille Mistral 3.

Ces efforts permettent aux développeurs de gérer des charges de travail à haut débit et à long contexte, du data center jusqu’aux robots.

Ministral 3 avec de l’efficacité et du raisonnement

Pour les cas d’usage locaux et Edge, l’entreprise propose la famille de modèles Ministral 3. Elle se décline en trois tailles de paramètres : 3B, 8B et 14B. Contrairement au modèle Large, ces versions denses sont d’ores et déjà proposées en trois variantes : base, instruction et raisonnement.

La gamme Ministral vise le meilleur rapport performance-coût du marché. Dans des conditions réelles, ces modèles égalent ou surpassent leurs concurrents tout en générant souvent beaucoup moins de tokens, ce qui accroît leur efficacité.

La variante de raisonnement de 14 milliards de paramètres illustre cette performance en atteignant 85 % sur le benchmark AIME ’25. Ces modèles intègrent également des capacités natives de compréhension d’image, offrant une solution complète pour les besoins des développeurs.

Les sujets liés à ces tags pourraient vous interesser

2 commentaires pour cet article :

  • Matt
    Ds mais mistral c’est tout claqué j’ai abandonné leur ia
    • Korel_136
      Mistral était à la traîne depuis un certain temps, j’ai l’impression dans les dernières versions qu’on sent réellement la différence et qu’ils rattrapent leur retard !

Laisser un commentaire

Sauvegarder mon pseudo et mon adresse e-mail pour la prochaine fois.

Quelques règles à respecter :
  • 1. Restez dans le sujet de l'article
  • 2. Respectez les autres lecteurs : pas de messages agressifs, vulgaires, haineux,…
  • 3. Relisez-vous avant de soumettre un commentaire : pas de langage SMS, et vérifiez l'orthographe avant de valider (les navigateurs soulignent les fautes).
  • 4. En cas d'erreur, faute d'orthographe, et/ou omission dans l'article , merci de nous contacter via la page Contact.

Nous nous réservons le droit de supprimer les commentaires qui ne respectent pas ces règles


Les derniers articles

Paramount Warner Bros Logos

Paramount rachète Warner Bros pour 110 milliards de dollars après l’abandon de Netflix

28 Fév. 2026 • 7:00
1 Business

Paramount Skydance et Warner Bros Discovery ont annoncé la conclusion d’un accord définitif d’acquisition à 110 milliards...

HBO Max Logo

HBO Max s’attaque au partage de compte dans le monde

27 Fév. 2026 • 20:55
0 Internet

Warner Bros Discovery va étendre en 2026 les restrictions au partage de compte sur HBO Max à l’international, après une...

Samsung Galaxy S26 Ultra Arriere Coloris

Galaxy S26 : la hausse de prix est liée à la pénurie de RAM selon Samsung

27 Fév. 2026 • 20:20
2 Mobiles / Tablettes

Samsung a annoncé cette semaine les Galaxy S26, Galaxy S26+ et Galaxy S26 Ultra, avec une hausse de prix par rapport à la...

Disney Plus Logo

Disney+ France rétablit le HDR, mais toujours pas le Dolby Vision et HDR10+

27 Fév. 2026 • 19:14
0 Internet

Disney+ propose de nouveau le HDR en France et dans les autres pays d’Europe. Cela fait suite à son récent retrait. En revanche, le...

God of War

God of War : première image de Kratos et Atreus dans la série événement d’Amazon Prime Video

27 Fév. 2026 • 17:41
2 Jeux vidéo

Prime Video et Sony Pictures lèvent enfin le voile sur l’adaptation live-action très (très) attendue de God of War. Les...

Les dernières actus Apple sur iPhoneAddict :

Comparateur

Recherchez le meilleur prix des produits Hi-tech

Recherche

Recherchez des articles sur le site