Meta mise sur les CPU Nvidia dans un accord pluriannuel d'infrastructure AI avec les processeurs Grace et Vera

Meta reconfigure sa stratégie d’infrastructure IA à travers un partenariat matériel global axé sur les CPU Nvidia aux côtés de GPU de nouvelle génération.

Meta signe un accord pluriannuel avec Nvidia couvrant GPU et CPU autonomes

La société mère de Facebook, Meta, a signé un accord pluriannuel avec Nvidia pour l’achat de millions de puces, couvrant à la fois des GPU et, pour la première fois, des CPU autonomes. L’accord inclut les GPU Blackwell actuels, les futurs GPU Rubin, ainsi que les processeurs Grace et Vera en tant que produits indépendants. Cependant, aucune des deux parties n’a divulgué la valeur totale du contrat.

Ben Bajarin, PDG et analyste principal chez le cabinet de conseil technologique Creative Strategies, estime que le package vaudrait plusieurs milliards de dollars. De plus, le média The Register rapporte que cet accord pourrait ajouter des dizaines de milliards de dollars au résultat net de Nvidia sur la durée du contrat. Cela souligne à quel point Meta accélère son empreinte en IA.

Le PDG de Meta, Mark Zuckerberg, avait déjà signalé ce changement dans les priorités de dépense. Il a annoncé que Meta prévoit de presque doubler ses investissements dans l’infrastructure IA en 2026, avec des dépenses totales pouvant atteindre 135 milliards de dollars. Cependant, ce nouvel accord sur les puces donne au marché une vision plus claire de la destination d’une grande partie de ces capitaux.

La stratégie CPU de Nvidia se tourne vers les charges de travail d’inférence

L’élément le plus marquant de l’accord n’est pas l’achat de GPU, mais la décision de Meta d’adopter à grande échelle les CPU Nvidia en tant que produits autonomes. Jusqu’au début 2026, le processeur Grace était proposé presque exclusivement dans le cadre des « Superchips », qui combinent un CPU et un GPU sur un seul module. Cependant, Nvidia a officiellement modifié sa stratégie de vente en janvier 2026 en commençant à vendre ces CPU séparément.

Le premier client connu publiquement pour ces CPU autonomes à cette époque était le fournisseur de cloud CoreWeave. Désormais, Meta rejoint cette liste, ce qui indique une demande croissante pour des architectures flexibles basées sur CPU. Cela s’inscrit dans une transition plus large de l’IA, passant de l’entraînement de modèles massifs à leur déploiement en production.

L’entreprise cible le segment en pleine expansion de l’inférence. Ces dernières années, le secteur de l’IA s’est concentré fortement sur la formation de grands modèles à l’aide de GPU intensifs. Cependant, l’accent se déplace de plus en plus vers l’inférence, le processus d’exécution et de mise à l’échelle de ces systèmes entraînés. Pour de nombreuses tâches d’inférence, les GPU traditionnels sont excessifs en termes de coût et de consommation d’énergie.

« Nous étions dans l’ère de la ‘formation’, et nous passons maintenant à l’ère de l’‘inférence’, qui exige une approche totalement différente », a déclaré Bajarin au Financial Times. Cela dit, ce changement n’élimine pas la demande en GPU ; il modifie plutôt l’équilibre entre les charges de travail GPU et CPU dans les centres de données hyperscale.

CPU Grace et Vera : détails techniques et plans de déploiement de Meta

Ian Buck, vice-président et directeur général de Nvidia pour l’hyperscale et le HPC, a déclaré, selon The Register, que le processeur Grace peut « offrir le double de performance par watt sur ces charges de travail en arrière-plan » telles que l’exécution de bases de données. De plus, il a noté que « Meta a déjà eu l’occasion d’utiliser Vera et d’exécuter certaines de ces charges, et les résultats sont très prometteurs ». Cela met en évidence l’effort de Nvidia pour optimiser l’efficacité énergétique pour l’inférence à grande échelle et le traitement de données.

Le CPU Grace dispose de 72 cœurs Arm Neoverse V2 et utilise la mémoire LPDDR5x, offrant des avantages en bande passante et en espace dans des environnements contraints. En revanche, le CPU Vera de nouvelle génération de Nvidia intègre 88 cœurs Arm personnalisés avec multi-threading simultané et capacités de calcul confidentiel intégrées. Ces spécifications soulignent l’ambition de Nvidia de concurrencer directement les fournisseurs établis de CPU serveurs.

Selon Nvidia, Meta prévoit d’utiliser Vera pour le traitement privé et les fonctionnalités IA dans son service de messagerie chiffrée WhatsApp. Le déploiement de Vera est prévu pour 2027, indiquant une feuille de route pluriannuelle pour la modernisation de l’infrastructure backend de Meta. Cependant, l’entreprise n’a pas fourni de calendrier précis pour le déploiement dans chaque région de centre de données ou pour les services spécifiques au-delà des charges de messagerie et de sécurité.

Paysage concurrentiel : Nvidia entre sur le marché des CPU serveurs

La décision de Nvidia de vendre des CPU en tant que produits autonomes la met en concurrence directe avec Intel et AMD sur le marché lucratif des serveurs. Jusqu’à présent, la croissance de Nvidia provenait principalement des GPU, mais l’ajout de CPU offre à l’entreprise un portefeuille plus complet pour les centres de données. De plus, cela permet aux clients de construire des stacks complets autour d’un même fournisseur plutôt que de mixer des composants de plusieurs fournisseurs.

En achetant des CPU Nvidia autonomes, Meta s’éloigne de la stratégie adoptée par d’autres hyperscalers. Amazon s’appuie sur ses propres processeurs Graviton, tandis que Google privilégie ses puces Axion personnalisées. Meta, quant à elle, continue d’acheter chez Nvidia tout en concevant ses propres accélérateurs IA. Cependant, le Financial Times a rapporté que les efforts internes de Meta pour ses puces ont « rencontré certains défis techniques et des retards de déploiement ».

Pour Nvidia, la pression concurrentielle s’intensifie également. Google, Amazon et Microsoft ont chacun annoncé de nouvelles puces internes ces derniers mois. Parallèlement, OpenAI a co-développé un processeur avec Broadcom et signé un accord d’approvisionnement important avec AMD. Plusieurs startups, dont Cerebras, développent des siliciums spécialisés pour l’inférence qui pourraient éroder la domination de Nvidia si leur adoption se généralise.

Tensions sur le marché, réactions boursières et stratégies multi-fournisseurs

En décembre, Nvidia a acquis des talents de la société de puces d’inférence Groq dans le cadre d’un accord de licence, visant à renforcer sa base technologique dans cette nouvelle phase de calcul d’inférence. Cependant, le sentiment des investisseurs reste sensible à tout signe de diversification client. Fin 2022, l’action Nvidia a chuté de 4 % après des rapports suggérant que Meta était en pourparlers avec Google pour l’utilisation d’unités de traitement tensoriel (TPU). Aucun accord officiel sur les TPU n’a été annoncé depuis.

Meta n’est pas non plus exclusivement liée au matériel Nvidia. Selon The Register, l’entreprise exploite une flotte de GPU AMD Instinct et a participé directement à la conception des systèmes rack Helios d’AMD, qui devraient être lancés plus tard cette année. De plus, cette approche multi-fournisseurs donne à Meta un levier dans les négociations de prix et contribue à réduire le risque d’approvisionnement dans son infrastructure IA en pleine croissance.

Alors que l’entreprise étend ses centres de données, la question « Nvidia vend-elle des CPU » trouve une réponse concrète à travers des déploiements comme celui-ci. L’accord plus large entre Meta et Nvidia montre comment les CPU Nvidia deviennent une pièce centrale des architectures d’inférence à grande échelle, même si les hyperscalers expérimentent leurs propres siliciums personnalisés et plateformes d’accélérateurs rivaux.

En résumé, l’accord pluriannuel de Meta sur le matériel souligne une transition structurelle de l’IA, passant des clusters GPU axés sur la formation à des architectures optimisées pour l’inférence, construites autour de CPU avancés tels que Grace et Vera. Cependant, face à la concurrence d’Intel, AMD, des processeurs natifs cloud et de startups spécialisées, Nvidia doit relever un défi complexe pour faire de sa nouvelle stratégie CPU une domination durable dans les centres de données.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)