Metaは、GraceとVeraプロセッサを含む数年にわたるAIインフラストラクチャ契約で、NvidiaのCPUに賭ける

Metaは、次世代GPUとともにNVIDIAのCPUを中心としたハードウェアパートナーシップを通じて、AIインフラストラクチャ戦略を再構築しています。

Meta、GPUとスタンドアロンCPUを含む複数年のNVIDIA契約を締結

Facebookの親会社であるMetaは、NVIDIAと複数年の契約を結び、数百万台のチップを購入します。この契約には、GPUとともに、初めてスタンドアロンのCPUも含まれています。対象は現在のBlackwell GPU、今後のRubin GPU、そして新しいGraceとVeraプロセッサのスタンドアロン製品です。ただし、契約の総額は両者ともに明らかにしていません。

テックコンサルティング会社Creative StrategiesのCEO兼主任アナリスト、Ben Bajarinは、このパッケージの価値は数十億ドルに上ると推定しています。さらに、テクノロジー情報サイトThe Registerは、この契約が期間中にNVIDIAの純利益に何十億ドルも追加される可能性が高いと報じています。これは、MetaがAIの展開を積極的に拡大していることを示しています。

MetaのCEO、マーク・ザッカーバーグはすでにこの支出優先順位の変化を示唆していました。彼は2026年にAIインフラ投資をほぼ倍増させ、総支出額は1350億ドルに達する可能性があると発表しています。とはいえ、新しいチップ契約は、市場にその資本の行き先についてより明確な見通しをもたらしています。

NVIDIAのCPU戦略は推論ワークロードへのシフトを促進

この契約の最も注目すべき点は、GPUの購入ではなく、MetaがNVIDIAのCPUを大規模にスタンドアロン製品として採用する決定です。2026年初頭まで、Graceプロセッサはほぼ「スーパーチップ」と呼ばれる、CPUとGPUを一つのモジュールに統合した製品の一部として提供されていました。しかし、NVIDIAは2026年1月に販売戦略を公式に変更し、これらのCPUを個別に販売し始めました。

当時、最初に公に名乗りを上げたスタンドアロンCPUの顧客は、クラウドサービスのCoreWeaveでした。今やMetaもそのリストに加わり、柔軟なCPUベースのアーキテクチャに対する需要の高まりを示しています。これは、AIの進展が巨大モデルのトレーニングから実運用環境での提供へと移行していることと一致します。

同社は、急速に拡大する推論(インフェレンス)セグメントをターゲットにしています。近年、AI分野は大規模モデルのGPU集中的なトレーニングに重点を置いてきましたが、今やその焦点は推論、すなわち訓練済みシステムの実行とスケーリングに移っています。多くの推論タスクにおいて、従来のGPUはコストと電力の面で過剰です。

「我々は『トレーニング』の時代にいましたが、今は『推論』の時代に移行しており、全く異なるアプローチが求められています」とBajarinはフィナンシャル・タイムズに語っています。ただし、このシフトはGPUの需要を完全になくすわけではなく、むしろハイパースケールのデータセンター内でのGPUとCPUの負荷バランスを変えるものです。

GraceとVera CPUの技術的詳細とMetaの展開計画

NVIDIAのハイパースケールおよびHPC担当副社長兼ゼネラルマネージャーのIan Buckは、The Registerによると、「Graceプロセッサはデータベースの運用などのバックエンドワークロードにおいて、ワットあたりの性能を2倍にできる」と述べています。さらに、「MetaはすでにVeraを使ってこれらのワークロードを実行する機会を得ており、その結果は非常に有望だ」とも付け加えています。これは、大規模推論やデータ処理のための電力効率最適化に向けたNVIDIAの取り組みの一端を示しています。

Grace CPUは72コアのArm Neoverse V2を搭載し、LPDDR5xメモリを使用しています。これにより、帯域幅とスペースの制約がある環境での性能向上が期待されます。一方、NVIDIAの次世代Vera CPUは、88のカスタムArmコアと同時マルチスレッディング、そして内蔵の秘密計算機能を備えています。これらの仕様は、NVIDIAが既存のサーバーCPUベンダーと直接競合する意欲を示しています。

NVIDIAによると、MetaはVeraをWhatsAppの暗号化メッセージングサービスのプライベート処理やAI機能に利用する予定です。Veraの展開は2027年を予定しており、Metaのバックエンド近代化のための複数年のロードマップを示しています。ただし、同社は各データセンター地域や特定のサービス(メッセージングやセキュリティ関連のワークロード以外)の詳細な展開スケジュールは明らかにしていません。

競争環境:NVIDIA、サーバーCPU市場に参入

NVIDIAがCPUをスタンドアロン製品として販売する動きは、インテルやAMDと直接競合することになります。以前はGPUによる成長が主でしたが、CPUの追加により、同社はより包括的なデータセンターポートフォリオを構築できるようになりました。さらに、顧客は複数のサプライヤーの部品を混在させるのではなく、同一ベンダーのフルスタックを構築できるメリットもあります。

Metaは、スタンドアロンのNVIDIA CPUを購入することで、他のハイパースケーラーが追求する戦略から逸脱しています。Amazonは自社のGravitonプロセッサを使用し、GoogleはカスタムのAxionチップに依存しています。一方、MetaはNVIDIAから購入しつつも、自社のAIアクセラレータの設計も続けています。ただし、Financial Timesによると、Metaの内部チップ開発は「技術的な課題や展開遅延に苦しんでいる」とのことです。

NVIDIAにとっても競争圧力は高まっています。Google、Amazon、Microsoftは近月、新しい自社チップを発表しています。同時に、OpenAIはBroadcomと共同でプロセッサを開発し、AMDとも重要な供給契約を結んでいます。Cerebrasなどのスタートアップも、広く採用されればNVIDIAの支配を脅かす特殊な推論用シリコンを推進しています。

市場の緊張、株価の反応、多ベンダー戦略

2022年12月、NVIDIAは推論チップ企業Groqから人材を獲得し、ライセンス契約を結び、推論時代のコンピューティング基盤を強化しました。しかし、投資家のセンチメントは顧客の多様化の兆候に敏感です。昨年末、MetaがGoogleとTensor Processing Unitsの利用について協議しているとの報道を受けて、NVIDIAの株価は4%下落しましたが、その後の正式なTPU契約は発表されていません。

MetaはNVIDIAハードウェアに限定されていません。The Registerによると、同社はAMDのInstinct GPU群も運用しており、今年後半にリリース予定のAMDのHeliosラックシステムの設計にも関与しています。このマルチベンダー戦略は、価格交渉力を高め、急速に拡大するMeta AIインフラの供給リスクを低減するのに役立っています。

同社がデータセンターを拡大する中、「NVIDIAはCPUを販売しているのか」という問いは、こうした展開を通じて実際に答えられつつあります。MetaとNVIDIAの広範な契約は、NVIDIAのCPUが大規模推論アーキテクチャの中心的な要素になりつつあることを示しており、ハイパースケール事業者が独自のカスタムシリコンや競合のアクセラレータプラットフォームを試す中で、その重要性は増しています。

要約すると、Metaの複数年ハードウェア契約は、AIのトレーニング重視のGPUクラスターから推論最適化アーキテクチャへの構造的な移行を示しています。ただし、Intel、AMD、クラウドネイティブプロセッサ、そして専門スタートアップも同じワークロードを狙って競合しているため、NVIDIAは新たなCPU戦略を長期的なデータセンター支配に結びつけるために、複雑な戦いを強いられています。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン