TENDANCES
Comparateur
- AUTO
Microsoft vient de dévoiler Phi-3 Mini, la première version de sa nouvelle série de modèles d’IA « léger » conçue pour offrir de puissantes capacités d’IA dans un format plus compact et efficace. Avec 3,8 milliards de paramètres, Phi-3 Mini est conçu pour fonctionner de manière robuste même s’il est formé sur un ensemble de données plus petit que d’autres modèles plus imposants comme GPT-4. Désormais disponible sur des plateformes telles qu’Azure, Hugging Face et Ollama, Microsoft positionne Phi-3 Mini comme un précurseur des prochaines versions de Phi-3 Small et Phi-3 Medium, qui compteront respectivement 7 milliards et 14 milliards de paramètres. Cette évolution reflète une tendance croissante de l’industrie vers le développement de modèles d’IA performants mais plus économes en ressources.
Le développement de Phi-3 Mini s’appuie sur le succès de son prédécesseur, Phi-2, qui était réputé pour égaler les performances de LLMs plus vastes. Selon Microsoft, Phi-3 Mini surpasse non seulement Phi-2 en termes de capacités, mais se rapproche également des performances de LLM dix fois plus grands, ce qui suggère des progrès significatifs en termes d’efficience et d’efficacité. Eric Boyd, vice-président de Microsoft Azure AI Platform, a souligné que le Phi-3 Mini rivalise avec des LLMs comme GPT-3.5, offrant une puissance d’IA substantielle dans un « facteur de forme plus petit ». Cette approche s’aligne sur l’évolution de l’industrie vers des modèles moins coûteux à exploiter et mieux adaptés aux appareils personnels tels que les smartphones et les ordinateurs portables.
Au-delà de Microsoft, l’industrie dans son ensemble semble se diriger vers une adoption plus large de modèles d’IA plus petits, adaptés à des tâches spécifiques telles que la synthèse de documents et l’assistance au codage. Google et Anthropic développent également de petits modèles d’IA, chacun doté de capacités uniques destinées à des applications de niche. Les méthodes de formation innovantes de Microsoft pour Phi-3, qui impliquaient notamment la création de « livres pour enfants » synthétiques afin de simuler des processus d’apprentissage plus simples, dévoilent une approche créative de l’entraînement de ce LLM. Malgré leur taille réduite, les modèles comme Phi-3 Mini s’avèrent plus adaptables et plus économiques pour les entreprises, en particulier lorsqu’ils sont appliqués à des ensembles de données internes généralement plus petits.
TikTok annonce que son réseau social fermera ses portes ce dimanche, le 19 janvier 2025, aux États-Unis. Cela fait suite à...
Google a informé l’Union européenne qu’il ne s’engageait pas à intégrer le travail des organisations de...
Les robots humanoïdes G1 d’Unitree font leur footing dans la dernière vidéo publiée par la firme chinoise, et c’est...
L’année passée a été difficile pour l’émulation, avec une pression croissante de la part de Nintendo qui a...
Un incendie s’est déclaré à la Moss Landing Energy Storage Facility (en Californie), la plus grande installation de stockage...
18 Jan. 2025 • 7:13
17 Jan. 2025 • 20:46
17 Jan. 2025 • 19:21
17 Jan. 2025 • 18:52