L’intelligence artificielle n’a plus seulement besoin de cartes graphiques (GPU) pour entraîner des modèles, elle a aussi besoin de processeurs (CPU) pour les déployer. C’est cette bascule qui explique l’accord pluriannuel annoncé entre Google et Intel.

Un partenariat Google et Intel pour l’IA
Google Cloud déploie déjà les processeurs Xeon 6 d’Intel sur ses instances C4 et N4 qui couvrent un spectre large : coordination d’entraînement IA à grande échelle, inférence sensible à la latence et informatique généraliste. L’accord engage Google sur plusieurs générations de puces Xeon à venir, avec un objectif explicite d’amélioration des performances, de l’efficacité énergétique et du coût total d’infrastructure. « La mise à l’échelle de l’IA nécessite plus que des accélérateurs : il faut des systèmes équilibrés. Les CPU et les IPU sont essentiels pour offrir la performance, l’efficacité et la flexibilité qu’exigent les charges de travail d’IA modernes », a déclaré Lip-Bu Tan, directeur général d’Intel.
Au-delà des Xeon, Google et Intel réaffirment leur co-développement d’IPU (unités de traitement d’infrastructure), des accélérateurs programmables basés sur des ASIC (circuits intégrés dédiés) dont le travail conjoint remonte à 2022. Leur rôle est précis : décharger les CPU des fonctions réseau, stockage et sécurité pour libérer de la puissance de calcul vers les charges en lien avec l’IA.
Google entretient une dépendance aux processeurs Intel qui remonte à ses tout premiers racks de serveurs, il y a près de 30 ans. Ce nouvel accord s’inscrit donc dans une continuité, mais dans un contexte radicalement différent : Intel cherche à reconquérir une crédibilité dans l’IA après plusieurs années dominées par Nvidia. L’entreprise multiplie les signaux en ce sens avec une participation au projet Terafab d’Elon Musk avec SpaceX et Tesla et un rachat prévu de sa participation cédée à Apollo Global Management dans son usine irlandaise où sont fabriqués les serveurs Xeon.