Meta mengubah strategi infrastruktur AI-nya melalui kemitraan perangkat keras besar-besaran yang berfokus pada CPU Nvidia bersama GPU generasi berikutnya.
Meta menandatangani kesepakatan multiyear dengan Nvidia yang mencakup GPU dan CPU mandiri
Perusahaan induk Facebook, Meta, telah menandatangani perjanjian multiyear dengan Nvidia untuk membeli jutaan chip, mencakup baik GPU maupun, untuk pertama kalinya, CPU mandiri. Kesepakatan ini mencakup GPU Blackwell saat ini, GPU Rubin yang akan datang, serta prosesor Grace dan Vera yang baru sebagai produk mandiri. Namun, kedua belah pihak belum mengungkapkan nilai total kontrak tersebut.
Ben Bajarin, CEO dan analis utama di konsultan teknologi Creative Strategies, memperkirakan paket ini bernilai miliaran dolar. Selain itu, outlet teknologi The Register melaporkan bahwa perjanjian ini kemungkinan akan menambah puluhan miliar dolar ke laba bersih Nvidia selama masa berlakunya. Ini menegaskan seberapa agresif Meta memperluas jejak AI-nya.
CEO Meta, Mark Zuckerberg, sebelumnya sudah menandai perubahan prioritas pengeluaran ini. Ia mengumumkan bahwa Meta berencana untuk hampir menggandakan investasi infrastruktur AI-nya pada tahun 2026, dengan total pengeluaran yang berpotensi mencapai 135 miliar dolar. Dengan demikian, kesepakatan chip baru ini memberi gambaran yang lebih jelas tentang ke mana sebagian besar modal tersebut akan dialokasikan.
Strategi CPU Nvidia beralih ke beban kerja inference
Elemen paling mencolok dari perjanjian ini bukanlah pembelian GPU, tetapi keputusan Meta untuk mengadopsi CPU Nvidia secara besar-besaran sebagai produk mandiri. Hingga awal 2026, prosesor Grace hampir secara eksklusif ditawarkan sebagai bagian dari yang disebut Superchips, yang menggabungkan CPU dan GPU dalam satu modul. Namun, Nvidia secara resmi mengubah strategi penjualannya pada Januari 2026 dan mulai menjual CPU ini secara terpisah.
Pelanggannya yang pertama secara terbuka disebutkan adalah penyedia cloud neocloud CoreWeave. Kini Meta bergabung dalam daftar tersebut, menandakan meningkatnya permintaan untuk arsitektur berbasis CPU yang fleksibel. Ini sejalan dengan transisi yang lebih luas dalam AI dari pelatihan model besar ke penyajian model tersebut dalam lingkungan produksi.
Perusahaan menargetkan segmen inference yang sedang berkembang pesat. Dalam beberapa tahun terakhir, sektor AI sangat fokus pada pelatihan model besar yang intensif GPU. Namun, penekanan semakin bergeser ke inference, yaitu proses menjalankan dan menskalakan sistem yang telah dilatih tersebut. Untuk banyak tugas inference, GPU tradisional dianggap berlebihan dari segi biaya dan konsumsi daya.
“Kami dulu berada di era ‘pelatihan’, dan sekarang kami beralih ke era ‘inference’, yang menuntut pendekatan yang sama sekali berbeda,” kata Bajarin kepada Financial Times. Meski demikian, pergeseran ini tidak menghilangkan permintaan GPU; melainkan mengubah keseimbangan antara beban kerja GPU dan CPU di pusat data berskala besar.
CPU Grace dan Vera: detail teknis dan rencana penerapan Meta
Ian Buck, Wakil Presiden dan General Manager Nvidia untuk Hyperscale dan HPC, mengatakan, menurut The Register, bahwa prosesor Grace dapat “memberikan performa dua kali lipat per watt pada beban kerja backend seperti menjalankan basis data.” Selain itu, dia mencatat bahwa “Meta sudah memiliki kesempatan untuk menggunakan Vera dan menjalankan beberapa beban kerja tersebut, dan hasilnya sangat menjanjikan.” Ini menyoroti dorongan Nvidia untuk mengoptimalkan efisiensi daya dalam inference skala besar dan pemrosesan data.
CPU Grace memiliki 72 inti Arm Neoverse V2 dan menggunakan memori LPDDR5x, yang menawarkan keunggulan dalam bandwidth dan lingkungan dengan ruang terbatas. Sebaliknya, CPU Vera generasi berikutnya dari Nvidia membawa 88 inti Arm kustom dengan multi-threading simultan dan kemampuan komputasi rahasia bawaan. Spesifikasi ini menegaskan ambisi Nvidia untuk bersaing langsung dengan vendor CPU server mapan.
Menurut Nvidia, Meta berencana menggunakan Vera untuk pemrosesan pribadi dan fitur AI dalam layanan pesan terenkripsi WhatsApp. Penerapan Vera direncanakan untuk tahun 2027, menunjukkan peta jalan multi-tahun untuk modernisasi backend Meta. Namun, perusahaan belum memberikan rincian jadwal peluncuran untuk setiap wilayah pusat data atau layanan tertentu di luar beban kerja pesan dan keamanan.
Lanskap kompetitif: Nvidia masuk ke arena CPU server
Langkah Nvidia menjual CPU sebagai produk mandiri menempatkannya dalam kompetisi langsung dengan Intel dan AMD di pasar server yang menguntungkan. Sebelumnya, sebagian besar pertumbuhan Nvidia berasal dari GPU, tetapi penambahan CPU memberi perusahaan portofolio pusat data yang lebih lengkap. Selain itu, ini memungkinkan pelanggan membangun tumpukan lengkap dari vendor yang sama daripada mencampur komponen dari berbagai pemasok.
Dengan membeli CPU Nvidia mandiri, Meta menyimpang dari strategi yang diikuti oleh hyperscaler lain. Amazon mengandalkan prosesor Graviton miliknya sendiri, sementara Google bergantung pada chip Axion buatan sendiri. Sebaliknya, Meta membeli dari Nvidia meskipun terus merancang akselerator AI-nya sendiri. Namun, Financial Times melaporkan bahwa upaya chip internal Meta “mengalami beberapa tantangan teknis dan penundaan peluncuran.”
Bagi Nvidia, tekanan kompetitif juga semakin meningkat. Google, Amazon, dan Microsoft masing-masing telah mengumumkan chip internal baru dalam beberapa bulan terakhir. Secara paralel, OpenAI telah mengembangkan prosesor bersama Broadcom dan menandatangani perjanjian pasokan penting dengan AMD. Beberapa startup, termasuk Cerebras, mendorong silikon inference khusus yang dapat menggerus dominasi Nvidia jika diadopsi secara luas.
Ketegangan pasar, reaksi saham, dan strategi multi-vendor
Pada bulan Desember, Nvidia mengakuisisi talenta dari perusahaan chip inference Groq melalui perjanjian lisensi, bertujuan memperkuat basis teknologi dalam fase komputasi inference era baru ini. Namun, sentimen investor tetap sensitif terhadap tanda-tanda diversifikasi pelanggan. Akhir tahun lalu, saham Nvidia turun empat persen setelah laporan menyebutkan bahwa Meta sedang dalam pembicaraan dengan Google tentang penggunaan Tensor Processing Units. Sejak itu, belum ada pengumuman resmi mengenai kesepakatan TPUs.
Meta juga tidak terikat secara eksklusif pada perangkat keras Nvidia. Menurut The Register, perusahaan mengoperasikan armada GPU AMD Instinct dan turut serta secara langsung dalam merancang sistem rak Helios AMD, yang dijadwalkan dirilis akhir tahun ini. Selain itu, pendekatan multi-vendor ini memberi Meta kekuatan tawar dalam negosiasi harga dan membantu mengurangi risiko pasokan di infrastruktur AI Meta yang berkembang pesat.
Seiring perusahaan memperluas pusat data, pertanyaan “apakah Nvidia menjual CPU” mulai terjawab melalui penerapan seperti ini. Kesepakatan luas Meta dengan Nvidia menunjukkan bagaimana CPU Nvidia menjadi bagian sentral dari arsitektur inference skala besar, bahkan saat hyperscaler bereksperimen dengan silikon kustom mereka sendiri dan platform akselerator pesaing.
Singkatnya, kesepakatan perangkat keras multiyear Meta menegaskan adanya transisi struktural dalam AI dari kluster GPU yang berat pelatihan menuju arsitektur yang dioptimalkan untuk inference yang dibangun di sekitar CPU canggih seperti Grace dan Vera. Namun, dengan Intel, AMD, prosesor cloud-native, dan startup khusus yang bersaing untuk beban kerja yang sama, Nvidia menghadapi tantangan kompleks untuk mengubah strategi CPU barunya menjadi dominasi pusat data jangka panjang.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Meta bertaruh pada CPU Nvidia dalam kesepakatan infrastruktur AI multi-tahun dengan prosesor Grace dan Vera
Meta mengubah strategi infrastruktur AI-nya melalui kemitraan perangkat keras besar-besaran yang berfokus pada CPU Nvidia bersama GPU generasi berikutnya.
Meta menandatangani kesepakatan multiyear dengan Nvidia yang mencakup GPU dan CPU mandiri
Perusahaan induk Facebook, Meta, telah menandatangani perjanjian multiyear dengan Nvidia untuk membeli jutaan chip, mencakup baik GPU maupun, untuk pertama kalinya, CPU mandiri. Kesepakatan ini mencakup GPU Blackwell saat ini, GPU Rubin yang akan datang, serta prosesor Grace dan Vera yang baru sebagai produk mandiri. Namun, kedua belah pihak belum mengungkapkan nilai total kontrak tersebut.
Ben Bajarin, CEO dan analis utama di konsultan teknologi Creative Strategies, memperkirakan paket ini bernilai miliaran dolar. Selain itu, outlet teknologi The Register melaporkan bahwa perjanjian ini kemungkinan akan menambah puluhan miliar dolar ke laba bersih Nvidia selama masa berlakunya. Ini menegaskan seberapa agresif Meta memperluas jejak AI-nya.
CEO Meta, Mark Zuckerberg, sebelumnya sudah menandai perubahan prioritas pengeluaran ini. Ia mengumumkan bahwa Meta berencana untuk hampir menggandakan investasi infrastruktur AI-nya pada tahun 2026, dengan total pengeluaran yang berpotensi mencapai 135 miliar dolar. Dengan demikian, kesepakatan chip baru ini memberi gambaran yang lebih jelas tentang ke mana sebagian besar modal tersebut akan dialokasikan.
Strategi CPU Nvidia beralih ke beban kerja inference
Elemen paling mencolok dari perjanjian ini bukanlah pembelian GPU, tetapi keputusan Meta untuk mengadopsi CPU Nvidia secara besar-besaran sebagai produk mandiri. Hingga awal 2026, prosesor Grace hampir secara eksklusif ditawarkan sebagai bagian dari yang disebut Superchips, yang menggabungkan CPU dan GPU dalam satu modul. Namun, Nvidia secara resmi mengubah strategi penjualannya pada Januari 2026 dan mulai menjual CPU ini secara terpisah.
Pelanggannya yang pertama secara terbuka disebutkan adalah penyedia cloud neocloud CoreWeave. Kini Meta bergabung dalam daftar tersebut, menandakan meningkatnya permintaan untuk arsitektur berbasis CPU yang fleksibel. Ini sejalan dengan transisi yang lebih luas dalam AI dari pelatihan model besar ke penyajian model tersebut dalam lingkungan produksi.
Perusahaan menargetkan segmen inference yang sedang berkembang pesat. Dalam beberapa tahun terakhir, sektor AI sangat fokus pada pelatihan model besar yang intensif GPU. Namun, penekanan semakin bergeser ke inference, yaitu proses menjalankan dan menskalakan sistem yang telah dilatih tersebut. Untuk banyak tugas inference, GPU tradisional dianggap berlebihan dari segi biaya dan konsumsi daya.
“Kami dulu berada di era ‘pelatihan’, dan sekarang kami beralih ke era ‘inference’, yang menuntut pendekatan yang sama sekali berbeda,” kata Bajarin kepada Financial Times. Meski demikian, pergeseran ini tidak menghilangkan permintaan GPU; melainkan mengubah keseimbangan antara beban kerja GPU dan CPU di pusat data berskala besar.
CPU Grace dan Vera: detail teknis dan rencana penerapan Meta
Ian Buck, Wakil Presiden dan General Manager Nvidia untuk Hyperscale dan HPC, mengatakan, menurut The Register, bahwa prosesor Grace dapat “memberikan performa dua kali lipat per watt pada beban kerja backend seperti menjalankan basis data.” Selain itu, dia mencatat bahwa “Meta sudah memiliki kesempatan untuk menggunakan Vera dan menjalankan beberapa beban kerja tersebut, dan hasilnya sangat menjanjikan.” Ini menyoroti dorongan Nvidia untuk mengoptimalkan efisiensi daya dalam inference skala besar dan pemrosesan data.
CPU Grace memiliki 72 inti Arm Neoverse V2 dan menggunakan memori LPDDR5x, yang menawarkan keunggulan dalam bandwidth dan lingkungan dengan ruang terbatas. Sebaliknya, CPU Vera generasi berikutnya dari Nvidia membawa 88 inti Arm kustom dengan multi-threading simultan dan kemampuan komputasi rahasia bawaan. Spesifikasi ini menegaskan ambisi Nvidia untuk bersaing langsung dengan vendor CPU server mapan.
Menurut Nvidia, Meta berencana menggunakan Vera untuk pemrosesan pribadi dan fitur AI dalam layanan pesan terenkripsi WhatsApp. Penerapan Vera direncanakan untuk tahun 2027, menunjukkan peta jalan multi-tahun untuk modernisasi backend Meta. Namun, perusahaan belum memberikan rincian jadwal peluncuran untuk setiap wilayah pusat data atau layanan tertentu di luar beban kerja pesan dan keamanan.
Lanskap kompetitif: Nvidia masuk ke arena CPU server
Langkah Nvidia menjual CPU sebagai produk mandiri menempatkannya dalam kompetisi langsung dengan Intel dan AMD di pasar server yang menguntungkan. Sebelumnya, sebagian besar pertumbuhan Nvidia berasal dari GPU, tetapi penambahan CPU memberi perusahaan portofolio pusat data yang lebih lengkap. Selain itu, ini memungkinkan pelanggan membangun tumpukan lengkap dari vendor yang sama daripada mencampur komponen dari berbagai pemasok.
Dengan membeli CPU Nvidia mandiri, Meta menyimpang dari strategi yang diikuti oleh hyperscaler lain. Amazon mengandalkan prosesor Graviton miliknya sendiri, sementara Google bergantung pada chip Axion buatan sendiri. Sebaliknya, Meta membeli dari Nvidia meskipun terus merancang akselerator AI-nya sendiri. Namun, Financial Times melaporkan bahwa upaya chip internal Meta “mengalami beberapa tantangan teknis dan penundaan peluncuran.”
Bagi Nvidia, tekanan kompetitif juga semakin meningkat. Google, Amazon, dan Microsoft masing-masing telah mengumumkan chip internal baru dalam beberapa bulan terakhir. Secara paralel, OpenAI telah mengembangkan prosesor bersama Broadcom dan menandatangani perjanjian pasokan penting dengan AMD. Beberapa startup, termasuk Cerebras, mendorong silikon inference khusus yang dapat menggerus dominasi Nvidia jika diadopsi secara luas.
Ketegangan pasar, reaksi saham, dan strategi multi-vendor
Pada bulan Desember, Nvidia mengakuisisi talenta dari perusahaan chip inference Groq melalui perjanjian lisensi, bertujuan memperkuat basis teknologi dalam fase komputasi inference era baru ini. Namun, sentimen investor tetap sensitif terhadap tanda-tanda diversifikasi pelanggan. Akhir tahun lalu, saham Nvidia turun empat persen setelah laporan menyebutkan bahwa Meta sedang dalam pembicaraan dengan Google tentang penggunaan Tensor Processing Units. Sejak itu, belum ada pengumuman resmi mengenai kesepakatan TPUs.
Meta juga tidak terikat secara eksklusif pada perangkat keras Nvidia. Menurut The Register, perusahaan mengoperasikan armada GPU AMD Instinct dan turut serta secara langsung dalam merancang sistem rak Helios AMD, yang dijadwalkan dirilis akhir tahun ini. Selain itu, pendekatan multi-vendor ini memberi Meta kekuatan tawar dalam negosiasi harga dan membantu mengurangi risiko pasokan di infrastruktur AI Meta yang berkembang pesat.
Seiring perusahaan memperluas pusat data, pertanyaan “apakah Nvidia menjual CPU” mulai terjawab melalui penerapan seperti ini. Kesepakatan luas Meta dengan Nvidia menunjukkan bagaimana CPU Nvidia menjadi bagian sentral dari arsitektur inference skala besar, bahkan saat hyperscaler bereksperimen dengan silikon kustom mereka sendiri dan platform akselerator pesaing.
Singkatnya, kesepakatan perangkat keras multiyear Meta menegaskan adanya transisi struktural dalam AI dari kluster GPU yang berat pelatihan menuju arsitektur yang dioptimalkan untuk inference yang dibangun di sekitar CPU canggih seperti Grace dan Vera. Namun, dengan Intel, AMD, prosesor cloud-native, dan startup khusus yang bersaing untuk beban kerja yang sama, Nvidia menghadapi tantangan kompleks untuk mengubah strategi CPU barunya menjadi dominasi pusat data jangka panjang.