Meta đang định hình lại chiến lược hạ tầng AI của mình thông qua một hợp tác phần cứng toàn diện tập trung vào CPU của Nvidia cùng với các GPU thế hệ mới.
Meta ký hợp đồng nhiều năm với Nvidia bao gồm GPU và CPU độc lập
Công ty mẹ của Facebook, Meta, đã ký một thỏa thuận nhiều năm với Nvidia để mua hàng triệu chip, bao gồm cả GPU và lần đầu tiên, CPU độc lập. Thỏa thuận này bao gồm các GPU Blackwell hiện tại, GPU Rubin sắp ra mắt, cùng với các bộ xử lý Grace và Vera mới dưới dạng sản phẩm độc lập. Tuy nhiên, hai bên chưa tiết lộ tổng giá trị của hợp đồng.
Ben Bajarin, CEO và nhà phân tích chính tại công ty tư vấn công nghệ Creative Strategies, ước tính gói hàng này trị giá hàng tỷ đô la. Hơn nữa, trang công nghệ The Register đưa tin rằng thỏa thuận này có khả năng sẽ bổ sung hàng chục tỷ vào lợi nhuận ròng của Nvidia trong suốt thời gian hợp tác. Điều này nhấn mạnh cách Meta đang mở rộng phạm vi AI một cách mạnh mẽ.
CEO Meta, Mark Zuckerberg, đã từng nhấn mạnh sự thay đổi trong ưu tiên chi tiêu này. Ông công bố kế hoạch Meta sẽ gần như nhân đôi đầu tư vào hạ tầng AI vào năm 2026, với tổng chi tiêu có thể lên tới 135 tỷ đô la. Tuy nhiên, thỏa thuận chip mới này giúp thị trường có cái nhìn rõ hơn về phần lớn số vốn đó sẽ đi đâu.
Chiến lược CPU của Nvidia chuyển hướng sang các tác vụ suy luận
Điểm nổi bật nhất của thỏa thuận không phải là việc mua GPU mà là quyết định của Meta trong việc sử dụng quy mô lớn CPU của Nvidia như các sản phẩm độc lập. Đến đầu năm 2026, bộ xử lý Grace gần như chỉ được cung cấp như một phần của các gọi là Superchips, kết hợp CPU và GPU trên một mô-đun duy nhất. Tuy nhiên, Nvidia chính thức thay đổi chiến lược bán hàng vào tháng 1 năm 2026 và bắt đầu bán các CPU này riêng biệt.
Khách hàng đầu tiên được công bố sử dụng CPU độc lập vào thời điểm đó là nhà cung cấp đám mây CoreWeave. Hiện tại, Meta gia nhập danh sách này, cho thấy nhu cầu ngày càng tăng đối với các kiến trúc linh hoạt dựa trên CPU. Điều này phù hợp với xu hướng chuyển đổi trong AI từ việc huấn luyện các mô hình lớn sang phục vụ chúng trong môi trường sản xuất.
Công ty đang nhắm vào phân khúc suy luận đang mở rộng nhanh chóng. Trong những năm gần đây, ngành AI tập trung nhiều vào huấn luyện các mô hình lớn đòi hỏi GPU mạnh mẽ. Tuy nhiên, xu hướng ngày càng chuyển sang suy luận, tức là quá trình chạy và mở rộng các hệ thống đã huấn luyện đó. Đối với nhiều tác vụ suy luận, GPU truyền thống quá mức cần thiết về chi phí và năng lượng.
“Chúng ta đã ở trong thời kỳ ‘huấn luyện’, và bây giờ chúng ta đang chuyển sang ‘thời kỳ suy luận’, đòi hỏi một cách tiếp cận hoàn toàn khác,” Bajarin nói với Financial Times. Tuy nhiên, sự chuyển đổi này không loại bỏ nhu cầu GPU; thay vào đó, nó thay đổi cân bằng giữa các tác vụ GPU và CPU trong các trung tâm dữ liệu quy mô lớn.
CPU Grace và Vera: chi tiết kỹ thuật và kế hoạch triển khai của Meta
Ian Buck, Phó Chủ tịch và Giám đốc Điều hành của Nvidia về Hyperscale và HPC, cho biết, theo The Register, rằng bộ xử lý Grace có thể “đạt gấp đôi hiệu suất trên mỗi watt đối với các tác vụ phía sau như chạy cơ sở dữ liệu.” Hơn nữa, ông lưu ý rằng “Meta đã có cơ hội thử nghiệm Vera và chạy một số tác vụ đó, kết quả rất khả quan.” Điều này làm nổi bật nỗ lực của Nvidia trong việc tối ưu hóa hiệu quả năng lượng cho suy luận quy mô lớn và xử lý dữ liệu.
CPU Grace có 72 lõi Arm Neoverse V2 và sử dụng bộ nhớ LPDDR5x, mang lại lợi thế về băng thông và phù hợp với các môi trường hạn chế không gian. Ngược lại, CPU Vera thế hệ tiếp theo của Nvidia mang đến 88 lõi Arm tùy chỉnh với đa luồng đồng thời và khả năng tính toán bảo mật tích hợp. Các thông số kỹ thuật này thể hiện tham vọng của Nvidia trong việc cạnh tranh trực tiếp với các nhà cung cấp CPU máy chủ lâu đời.
Theo Nvidia, Meta dự định sử dụng Vera cho xử lý riêng tư và các tính năng AI trong dịch vụ nhắn tin mã hóa WhatsApp. Việc triển khai Vera dự kiến vào năm 2027, cho thấy lộ trình nhiều năm cho việc hiện đại hóa hạ tầng phía sau của Meta. Tuy nhiên, công ty chưa cung cấp các mốc thời gian cụ thể cho từng khu vực trung tâm dữ liệu hoặc các dịch vụ ngoài các tác vụ liên quan đến nhắn tin và bảo mật.
Thị trường cạnh tranh: Nvidia gia nhập lĩnh vực CPU máy chủ
Việc Nvidia bán CPU như các sản phẩm độc lập đưa công ty vào cạnh tranh trực tiếp với Intel và AMD trong thị trường máy chủ sinh lợi. Trước đây, phần lớn tăng trưởng của Nvidia đến từ GPU, nhưng việc bổ sung CPU giúp công ty có một danh mục trung tâm dữ liệu toàn diện hơn. Hơn nữa, điều này cho phép khách hàng xây dựng các hệ thống hoàn chỉnh từ cùng một nhà cung cấp thay vì pha trộn các thành phần từ nhiều nhà cung cấp khác nhau.
Bằng cách mua CPU Nvidia độc lập, Meta đi lệch khỏi chiến lược của các nhà hyperscaler khác. Amazon dựa vào các bộ xử lý Graviton của riêng mình, trong khi Google sử dụng chip tùy chỉnh Axion. Ngược lại, Meta vẫn mua từ Nvidia trong khi tiếp tục thiết kế các bộ tăng tốc AI của riêng mình. Tuy nhiên, theo Financial Times, các nỗ lực phát triển chip nội bộ của Meta đã gặp phải “một số thách thức kỹ thuật và trì hoãn trong quá trình triển khai.”
Đối với Nvidia, áp lực cạnh tranh cũng ngày càng tăng. Google, Amazon và Microsoft đều đã công bố các chip nội bộ mới trong những tháng gần đây. Song song đó, OpenAI đã hợp tác phát triển một bộ xử lý cùng Broadcom và ký hợp đồng cung cấp lớn với AMD. Một số startup như Cerebras đang thúc đẩy các chip suy luận chuyên dụng có thể làm giảm ưu thế của Nvidia nếu được phổ biến rộng rãi.
Căng thẳng thị trường, phản ứng cổ phiếu và chiến lược đa nhà cung cấp
Tháng 12, Nvidia đã mua lại nhân tài từ công ty chip suy luận Groq trong một thỏa thuận cấp phép, nhằm củng cố nền tảng công nghệ trong giai đoạn tính toán suy luận mới này. Tuy nhiên, tâm lý nhà đầu tư vẫn nhạy cảm với bất kỳ dấu hiệu nào về đa dạng hóa khách hàng. Cuối năm ngoái, cổ phiếu Nvidia giảm 4% sau khi có tin đồn Meta đang đàm phán với Google về việc sử dụng Tensor Processing Units. Từ đó đến nay, chưa có thỏa thuận chính thức nào về TPU được công bố.
Meta cũng không bị giới hạn chỉ sử dụng phần cứng của Nvidia. Theo The Register, công ty vận hành một đội xe GPU AMD Instinct và đã tham gia trực tiếp vào việc thiết kế hệ thống rack Helios của AMD, dự kiến ra mắt trong năm nay. Hơn nữa, cách tiếp cận đa nhà cung cấp này giúp Meta có đòn bẩy trong đàm phán giá cả và giảm thiểu rủi ro cung ứng trong hạ tầng AI ngày càng mở rộng của mình.
Khi công ty mở rộng các trung tâm dữ liệu, câu hỏi “Nvidia có bán CPU không” đang được trả lời qua các triển khai như thế này. Thỏa thuận rộng lớn giữa Meta và Nvidia cho thấy CPU của Nvidia đang trở thành phần trung tâm trong các kiến trúc suy luận quy mô lớn, ngay cả khi các nhà hyperscaler thử nghiệm các chip tùy chỉnh của riêng họ và các nền tảng tăng tốc cạnh tranh.
Tóm lại, hợp đồng phần cứng nhiều năm của Meta nhấn mạnh một sự chuyển đổi cấu trúc trong AI từ các cụm GPU tập trung vào huấn luyện nặng sang các kiến trúc tối ưu cho suy luận dựa trên các CPU tiên tiến như Grace và Vera. Tuy nhiên, với sự cạnh tranh từ Intel, AMD, các bộ xử lý gốc đám mây và các startup chuyên dụng, Nvidia đối mặt với một cuộc chiến phức tạp để biến chiến lược CPU mới thành thế thống trị lâu dài trong trung tâm dữ liệu.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Meta đặt cược vào CPU Nvidia trong thỏa thuận hạ tầng AI nhiều năm với các bộ xử lý Grace và Vera
Meta đang định hình lại chiến lược hạ tầng AI của mình thông qua một hợp tác phần cứng toàn diện tập trung vào CPU của Nvidia cùng với các GPU thế hệ mới.
Meta ký hợp đồng nhiều năm với Nvidia bao gồm GPU và CPU độc lập
Công ty mẹ của Facebook, Meta, đã ký một thỏa thuận nhiều năm với Nvidia để mua hàng triệu chip, bao gồm cả GPU và lần đầu tiên, CPU độc lập. Thỏa thuận này bao gồm các GPU Blackwell hiện tại, GPU Rubin sắp ra mắt, cùng với các bộ xử lý Grace và Vera mới dưới dạng sản phẩm độc lập. Tuy nhiên, hai bên chưa tiết lộ tổng giá trị của hợp đồng.
Ben Bajarin, CEO và nhà phân tích chính tại công ty tư vấn công nghệ Creative Strategies, ước tính gói hàng này trị giá hàng tỷ đô la. Hơn nữa, trang công nghệ The Register đưa tin rằng thỏa thuận này có khả năng sẽ bổ sung hàng chục tỷ vào lợi nhuận ròng của Nvidia trong suốt thời gian hợp tác. Điều này nhấn mạnh cách Meta đang mở rộng phạm vi AI một cách mạnh mẽ.
CEO Meta, Mark Zuckerberg, đã từng nhấn mạnh sự thay đổi trong ưu tiên chi tiêu này. Ông công bố kế hoạch Meta sẽ gần như nhân đôi đầu tư vào hạ tầng AI vào năm 2026, với tổng chi tiêu có thể lên tới 135 tỷ đô la. Tuy nhiên, thỏa thuận chip mới này giúp thị trường có cái nhìn rõ hơn về phần lớn số vốn đó sẽ đi đâu.
Chiến lược CPU của Nvidia chuyển hướng sang các tác vụ suy luận
Điểm nổi bật nhất của thỏa thuận không phải là việc mua GPU mà là quyết định của Meta trong việc sử dụng quy mô lớn CPU của Nvidia như các sản phẩm độc lập. Đến đầu năm 2026, bộ xử lý Grace gần như chỉ được cung cấp như một phần của các gọi là Superchips, kết hợp CPU và GPU trên một mô-đun duy nhất. Tuy nhiên, Nvidia chính thức thay đổi chiến lược bán hàng vào tháng 1 năm 2026 và bắt đầu bán các CPU này riêng biệt.
Khách hàng đầu tiên được công bố sử dụng CPU độc lập vào thời điểm đó là nhà cung cấp đám mây CoreWeave. Hiện tại, Meta gia nhập danh sách này, cho thấy nhu cầu ngày càng tăng đối với các kiến trúc linh hoạt dựa trên CPU. Điều này phù hợp với xu hướng chuyển đổi trong AI từ việc huấn luyện các mô hình lớn sang phục vụ chúng trong môi trường sản xuất.
Công ty đang nhắm vào phân khúc suy luận đang mở rộng nhanh chóng. Trong những năm gần đây, ngành AI tập trung nhiều vào huấn luyện các mô hình lớn đòi hỏi GPU mạnh mẽ. Tuy nhiên, xu hướng ngày càng chuyển sang suy luận, tức là quá trình chạy và mở rộng các hệ thống đã huấn luyện đó. Đối với nhiều tác vụ suy luận, GPU truyền thống quá mức cần thiết về chi phí và năng lượng.
“Chúng ta đã ở trong thời kỳ ‘huấn luyện’, và bây giờ chúng ta đang chuyển sang ‘thời kỳ suy luận’, đòi hỏi một cách tiếp cận hoàn toàn khác,” Bajarin nói với Financial Times. Tuy nhiên, sự chuyển đổi này không loại bỏ nhu cầu GPU; thay vào đó, nó thay đổi cân bằng giữa các tác vụ GPU và CPU trong các trung tâm dữ liệu quy mô lớn.
CPU Grace và Vera: chi tiết kỹ thuật và kế hoạch triển khai của Meta
Ian Buck, Phó Chủ tịch và Giám đốc Điều hành của Nvidia về Hyperscale và HPC, cho biết, theo The Register, rằng bộ xử lý Grace có thể “đạt gấp đôi hiệu suất trên mỗi watt đối với các tác vụ phía sau như chạy cơ sở dữ liệu.” Hơn nữa, ông lưu ý rằng “Meta đã có cơ hội thử nghiệm Vera và chạy một số tác vụ đó, kết quả rất khả quan.” Điều này làm nổi bật nỗ lực của Nvidia trong việc tối ưu hóa hiệu quả năng lượng cho suy luận quy mô lớn và xử lý dữ liệu.
CPU Grace có 72 lõi Arm Neoverse V2 và sử dụng bộ nhớ LPDDR5x, mang lại lợi thế về băng thông và phù hợp với các môi trường hạn chế không gian. Ngược lại, CPU Vera thế hệ tiếp theo của Nvidia mang đến 88 lõi Arm tùy chỉnh với đa luồng đồng thời và khả năng tính toán bảo mật tích hợp. Các thông số kỹ thuật này thể hiện tham vọng của Nvidia trong việc cạnh tranh trực tiếp với các nhà cung cấp CPU máy chủ lâu đời.
Theo Nvidia, Meta dự định sử dụng Vera cho xử lý riêng tư và các tính năng AI trong dịch vụ nhắn tin mã hóa WhatsApp. Việc triển khai Vera dự kiến vào năm 2027, cho thấy lộ trình nhiều năm cho việc hiện đại hóa hạ tầng phía sau của Meta. Tuy nhiên, công ty chưa cung cấp các mốc thời gian cụ thể cho từng khu vực trung tâm dữ liệu hoặc các dịch vụ ngoài các tác vụ liên quan đến nhắn tin và bảo mật.
Thị trường cạnh tranh: Nvidia gia nhập lĩnh vực CPU máy chủ
Việc Nvidia bán CPU như các sản phẩm độc lập đưa công ty vào cạnh tranh trực tiếp với Intel và AMD trong thị trường máy chủ sinh lợi. Trước đây, phần lớn tăng trưởng của Nvidia đến từ GPU, nhưng việc bổ sung CPU giúp công ty có một danh mục trung tâm dữ liệu toàn diện hơn. Hơn nữa, điều này cho phép khách hàng xây dựng các hệ thống hoàn chỉnh từ cùng một nhà cung cấp thay vì pha trộn các thành phần từ nhiều nhà cung cấp khác nhau.
Bằng cách mua CPU Nvidia độc lập, Meta đi lệch khỏi chiến lược của các nhà hyperscaler khác. Amazon dựa vào các bộ xử lý Graviton của riêng mình, trong khi Google sử dụng chip tùy chỉnh Axion. Ngược lại, Meta vẫn mua từ Nvidia trong khi tiếp tục thiết kế các bộ tăng tốc AI của riêng mình. Tuy nhiên, theo Financial Times, các nỗ lực phát triển chip nội bộ của Meta đã gặp phải “một số thách thức kỹ thuật và trì hoãn trong quá trình triển khai.”
Đối với Nvidia, áp lực cạnh tranh cũng ngày càng tăng. Google, Amazon và Microsoft đều đã công bố các chip nội bộ mới trong những tháng gần đây. Song song đó, OpenAI đã hợp tác phát triển một bộ xử lý cùng Broadcom và ký hợp đồng cung cấp lớn với AMD. Một số startup như Cerebras đang thúc đẩy các chip suy luận chuyên dụng có thể làm giảm ưu thế của Nvidia nếu được phổ biến rộng rãi.
Căng thẳng thị trường, phản ứng cổ phiếu và chiến lược đa nhà cung cấp
Tháng 12, Nvidia đã mua lại nhân tài từ công ty chip suy luận Groq trong một thỏa thuận cấp phép, nhằm củng cố nền tảng công nghệ trong giai đoạn tính toán suy luận mới này. Tuy nhiên, tâm lý nhà đầu tư vẫn nhạy cảm với bất kỳ dấu hiệu nào về đa dạng hóa khách hàng. Cuối năm ngoái, cổ phiếu Nvidia giảm 4% sau khi có tin đồn Meta đang đàm phán với Google về việc sử dụng Tensor Processing Units. Từ đó đến nay, chưa có thỏa thuận chính thức nào về TPU được công bố.
Meta cũng không bị giới hạn chỉ sử dụng phần cứng của Nvidia. Theo The Register, công ty vận hành một đội xe GPU AMD Instinct và đã tham gia trực tiếp vào việc thiết kế hệ thống rack Helios của AMD, dự kiến ra mắt trong năm nay. Hơn nữa, cách tiếp cận đa nhà cung cấp này giúp Meta có đòn bẩy trong đàm phán giá cả và giảm thiểu rủi ro cung ứng trong hạ tầng AI ngày càng mở rộng của mình.
Khi công ty mở rộng các trung tâm dữ liệu, câu hỏi “Nvidia có bán CPU không” đang được trả lời qua các triển khai như thế này. Thỏa thuận rộng lớn giữa Meta và Nvidia cho thấy CPU của Nvidia đang trở thành phần trung tâm trong các kiến trúc suy luận quy mô lớn, ngay cả khi các nhà hyperscaler thử nghiệm các chip tùy chỉnh của riêng họ và các nền tảng tăng tốc cạnh tranh.
Tóm lại, hợp đồng phần cứng nhiều năm của Meta nhấn mạnh một sự chuyển đổi cấu trúc trong AI từ các cụm GPU tập trung vào huấn luyện nặng sang các kiến trúc tối ưu cho suy luận dựa trên các CPU tiên tiến như Grace và Vera. Tuy nhiên, với sự cạnh tranh từ Intel, AMD, các bộ xử lý gốc đám mây và các startup chuyên dụng, Nvidia đối mặt với một cuộc chiến phức tạp để biến chiến lược CPU mới thành thế thống trị lâu dài trong trung tâm dữ liệu.