TENDANCES
Comparateur
- AUTO
Mistral AI, l’entreprise française d’intelligence artificielle, annonce aujourd’hui le lancement de Mistral 3, sa nouvelle famille de modèles de langage. Cette génération inclut trois modèles compacts ainsi qu’une version majeure nommée Mistral Large 3. L’annonce a lieu peu de temps après la présentation de GPT-5.1 d’OpenAI, Gemini 3 de Google, Claude Opus 4.5 d’Anthropic ou encore DeepSeek-V3.2.

Le fer de lance de cette annonce, Mistral Large 3, marque une évolution significative dans les capacités de pré-entraînement de la société. Il s’agit d’un modèle Mixture-of-Experts (MoE) clairsemé, le premier du genre depuis la famille Mixtral. Entraîné à partir de zéro sur 3 000 GPU Nvidia H200, il totalise 675 milliards de paramètres, dont 41 milliards sont actifs lors de l’inférence.
Ce modèle rivalise avec les meilleures solutions open-weight actuelles. Il démontre des compétences avancées en compréhension d’images et excelle dans les conversations multilingues, particulièrement en dehors du couple anglais-chinois. Sur le classement LMArena, il fait ses débuts à la deuxième place dans la catégorie des modèles open source sans raisonnement.


Bien que les versions de base et d’instruction soient disponibles immédiatement pour permettre la personnalisation en entreprise, une variante axée sur le raisonnement est prévue prochainement.
Pour garantir une accessibilité maximale, Mistral a collaboré étroitement avec Nvidia, Red Hat et vLLM. Ce partenariat a permis une co-conception logicielle et matérielle approfondie :
Ces efforts permettent aux développeurs de gérer des charges de travail à haut débit et à long contexte, du data center jusqu’aux robots.
Pour les cas d’usage locaux et Edge, l’entreprise propose la famille de modèles Ministral 3. Elle se décline en trois tailles de paramètres : 3B, 8B et 14B. Contrairement au modèle Large, ces versions denses sont d’ores et déjà proposées en trois variantes : base, instruction et raisonnement.
La gamme Ministral vise le meilleur rapport performance-coût du marché. Dans des conditions réelles, ces modèles égalent ou surpassent leurs concurrents tout en générant souvent beaucoup moins de tokens, ce qui accroît leur efficacité.
La variante de raisonnement de 14 milliards de paramètres illustre cette performance en atteignant 85 % sur le benchmark AIME ’25. Ces modèles intègrent également des capacités natives de compréhension d’image, offrant une solution complète pour les besoins des développeurs.
Valve vient de déployer une nouvelle version de son client Steam pour Windows afin de basculer entièrement en 64 bits, signant...
Réduire le coût du permis de conduire en échange d’une contrainte majeure : ne pouvoir prendre le volant que d’une voiture...
Chez Meta, la course à la super-intelligence est lancée… mais des premiers signes de friction interne commencent à...
L’offre B&You Pure Fibre de Bouygues Telecom, au prix de 23,99 €/mois pour avoir Internet à 8 Gb/s, va voir son tarif augmenter...
IO Interactive annonce aujourd’hui que 007 First Light, le futur jeu James Bond, voit sa date de sortie repoussée. En effet, le studio fait...
2 commentaires pour cet article :