TENDANCES
Comparateur
- AUTO
Lors de sa conférence annuelle re:Invent, Amazon a présenté deux nouvelles puces dédiées aux lourds calculs d’intelligence artificielle (IA). Le premier de ces processeurs, AWS Trainium2, a été conçu pour la formation et l’inférence de modèles et devrait offrir des performances jusqu’à quatre fois supérieures ainsi qu’une efficacité énergétique deux fois supérieure à celles de son prédécesseur. AWS Trainium2 sera disponible dans les instances EC Trn2 en clusters de 16 puces au sein du cloud AWS, et l’on pourra trouver jusqu’à 100 000 de ces puces dans le EC2 UltraCluster d’AWS pour un total de 65 exaflops de puissance de calcul (soit 650 Teraflops par puce !). Ce cluster de 100 000 puces Trainium pourra former en quelques semaines à peine un grand modèle de langage d’IA de 300 milliards de paramètres ! Pour se faire une idée plus concrète de la puissance de calcul de ce monstre de cluster, disons qu’il est 5 millions de fois plus puissants… qu’une Xbox Series X.

La deuxième puce, Graviton4, est basée sur Arm destinée et se destine aux calculs d’inférence pour l’apprentissage automatique. Cette quatrième génération de la famille de puces Graviton d’Amazon est censée offrir des performances de calcul jusqu’à 30 % supérieures à son prédécesseur, 50 % de cœurs en plus et 75 % de bande passante mémoire supplémentaire. Graviton4 sera disponible dans les instances Amazon EC2 R8g d’ici les prochains mois.
Les députés français ont adopté ce lundi à l’Assemblée nationale l’article central d’une...
Take-Two et Rockstar Games envisageraient de ne pas commercialiser la version disque de Grand Theft Auto VI (GTA 6) en même temps que...
La Commission européenne a intégré aujourd’hui WhatsApp à la liste des très grandes plateformes en ligne,...
SpaceX se prépare à franchir une nouvelle étape dans son programme spatial avec le premier vol d’essai de Starship V3,...
Chaque jour nous dénichons pour vous des promos sur les produits High-Tech pour vous faire économiser le plus d’argent possible. Voici...
26 Jan. 2026 • 19:12
26 Jan. 2026 • 18:38