Meta переосмислює свою стратегію інфраструктури штучного інтелекту через масштабне партнерство з апаратним забезпеченням, яке зосереджене на процесорах Nvidia разом із наступним поколінням GPU.
Meta підписує багаторічну угоду з Nvidia на постачання GPU та окремих процесорів CPU
Материнська компанія Facebook Meta уклала багаторічну угоду з Nvidia на закупівлю мільйонів чипів, що охоплює як GPU, так і, вперше, окремі процесори CPU. Угода включає поточні GPU Blackwell, майбутні Rubin GPU та нові процесори Grace і Vera як окремі продукти. Однак жодна зі сторін не розкрила загальну вартість контракту.
Бен Бажарін, генеральний директор та головний аналітик у технічній консалтинговій компанії Creative Strategies, оцінив, що цей пакет коштуватиме мільярди доларів. Крім того, технологічний портал The Register повідомив, що ця угода, ймовірно, додасть десятки мільярдів до прибутку Nvidia протягом її терміну дії. Це підкреслює, наскільки агресивно Meta масштабує свій вплив у сфері штучного інтелекту.
Генеральний директор Meta Марк Цукерберг вже раніше зазначав про цей перехід у пріоритетах витрат. Він оголосив, що Meta планує майже подвоїти інвестиції в інфраструктуру штучного інтелекту у 2026 році, з загальними витратами, що потенційно досягнуть 135 мільярдів доларів. Однак нова угода щодо чипів дає ринку більш чітке уявлення про те, куди спрямовуватимуться більшість цих капіталовкладень.
Стратегія процесорів Nvidia змінюється у напрямку інференційних навантажень
Найбільш вражаючим елементом угоди є не закупівля GPU, а рішення Meta масштабно впровадити процесори Nvidia як окремі продукти. До початку 2026 року процесор Grace майже виключно пропонувався у складі так званих Superchips, що поєднують CPU і GPU на одному модулі. Однак у січні 2026 року Nvidia офіційно змінила свою стратегію продажів і почала продавати ці процесори окремо.
Першим публічно названим клієнтом окремих CPU на той час стала компанія-інфраструктурний провайдер CoreWeave. Тепер Meta приєднується до цього списку, сигналізуючи про зростаючий попит на гнучкі архітектури на базі CPU. Це відповідає ширшому переходу в AI від тренування великих моделей до їхнього обслуговування у виробничих середовищах.
Компанія орієнтується на швидко зростаючий сегмент інференції. В останні роки сектор штучного інтелекту зосереджувався здебільшого на тренуванні великих моделей із високим навантаженням на GPU. Однак акцент дедалі більше зміщується на інференцію — процес запуску та масштабування навчальних систем. Для багатьох завдань інференції традиційні GPU є надмірними з точки зору вартості та енергоспоживання.
«Ми були в епосі «тренування», а тепер переходимо до «епохи інференції», яка вимагає зовсім іншого підходу», — сказав Бажарін у Financial Times. Однак цей перехід не зменшує попит на GPU; навпаки, він змінює баланс між навантаженнями GPU та CPU у гіпермасштабних дата-центрах.
Процесори Grace і Vera: технічні деталі та плани впровадження Meta
Іан Бак, віце-президент Nvidia та генеральний менеджер з гіпермасштабних систем і HPC, повідомив, згідно з The Register, що процесор Grace може «подвоїти продуктивність на ват у тих бекенд-навантаженнях», таких як обробка баз даних. Крім того, він зазначив, що «Meta вже мала можливість протестувати Vera та запустити деякі з цих навантажень, і результати виглядають дуже перспективними». Це підкреслює прагнення Nvidia оптимізувати енергоефективність для масштабної інференції та обробки даних.
Процесор Grace має 72 ядра Arm Neoverse V2 і використовує пам’ять LPDDR5x, що забезпечує переваги у пропускній здатності та в умовах обмеженого простору. У порівнянні, процесор Vera наступного покоління від Nvidia має 88 кастомних ядер Arm із підтримкою одночасного багатопоточності та вбудованими можливостями конфіденційних обчислень. Ці характеристики підкреслюють амбіції Nvidia конкурувати безпосередньо з усталеними постачальниками серверних процесорів.
За словами Nvidia, Meta планує використовувати Vera для приватної обробки та функцій штучного інтелекту у своєму зашифрованому месенджері WhatsApp. Впровадження Vera заплановано на 2027 рік, що свідчить про багаторічний план модернізації бекенд-інфраструктури Meta. Однак компанія не надала детальних термінів розгортання для кожного регіону дата-центру або конкретних сервісів, окрім месенджерів і безпеки.
Конкурентне середовище: Nvidia виходить на арену серверних процесорів
Перехід Nvidia до продажу процесорів як окремих продуктів ставить її в пряме конкурентне протистояння з Intel і AMD на прибутковому ринку серверів. Раніше більша частина зростання Nvidia базувалася на GPU, але додавання процесорів CPU дозволяє компанії мати більш повний портфель дата-центрів. Крім того, це дає можливість клієнтам створювати повні стеки з одного постачальника, а не змішувати компоненти від різних.
Придбавши окремі процесори Nvidia, Meta відхиляється від стратегії інших гіпермасштабних компаній. Amazon використовує власні процесори Graviton, а Google — свої кастомні чипи Axion. Meta ж купує у Nvidia, водночас продовжуючи розробляти власні прискорювачі AI. Однак у Financial Times повідомили, що внутрішні зусилля Meta щодо створення чипів «зіштовхнулися з технічними труднощами та затримками у впровадженні».
Для Nvidia конкуренція також посилюється. Google, Amazon і Microsoft за останні місяці оголосили про нові внутрішні чипи. Паралельно OpenAI спільно з Broadcom розробила процесор і підписала важливу угоду про постачання з AMD. Декілька стартапів, зокрема Cerebras, просувають спеціалізований інференційний силікон, який може зруйнувати домінування Nvidia при широкому впровадженні.
Ринкові напруженості, реакція акцій і стратегії багатьох постачальників
У грудні Nvidia придбала таланти з компанії Groq, що спеціалізується на інференційних чипах, у рамках ліцензійної угоди, щоб зміцнити свою технологічну базу у цій новій епосі інференційних обчислень. Однак настрої інвесторів залишаються чутливими до будь-яких ознак диверсифікації клієнтської бази. Наприкінці минулого року акції Nvidia знизилися на чотири відсотки після повідомлень про те, що Meta веде переговори з Google щодо використання Tensor Processing Units. Офіційних угод щодо TPU з того часу не оголошено.
Meta також не обмежується виключно обладнанням Nvidia. Згідно з The Register, компанія керує парком GPU AMD Instinct і брала участь у розробці систем ригів AMD Helios, які заплановані до випуску цього року. Крім того, цей багатовендорний підхід дає Meta важелі для переговорів щодо цін і допомагає зменшити ризики постачання у швидко зростаючій інфраструктурі Meta AI.
Зі зростанням дата-центрів Meta питання «чи продає Nvidia процесори» отримує практичне підтвердження через такі впровадження. Загальний договір Meta з Nvidia демонструє, що процесори Nvidia стають центральною частиною масштабних архітектур інференції, навіть тоді, коли гіпермасштабні компанії експериментують із власним кастомним силіконом і конкурентними платформами прискорювачів.
Підсумовуючи, багаторічна угода Meta щодо апаратного забезпечення підкреслює структурний перехід у AI від тренувальних GPU-кластерів до інференційних архітектур, оптимізованих під сучасні процесори, такі як Grace і Vera. Однак, з урахуванням конкуренції з боку Intel, AMD, хмарних процесорів і спеціалізованих стартапів, Nvidia стикається з складною боротьбою за перетворення своєї нової стратегії CPU у довгострокове домінування у дата-центрах.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Meta робить ставку на процесори Nvidia у багаторічній угоді щодо інфраструктури штучного інтелекту з процесорами Grace та Vera
Meta переосмислює свою стратегію інфраструктури штучного інтелекту через масштабне партнерство з апаратним забезпеченням, яке зосереджене на процесорах Nvidia разом із наступним поколінням GPU.
Meta підписує багаторічну угоду з Nvidia на постачання GPU та окремих процесорів CPU
Материнська компанія Facebook Meta уклала багаторічну угоду з Nvidia на закупівлю мільйонів чипів, що охоплює як GPU, так і, вперше, окремі процесори CPU. Угода включає поточні GPU Blackwell, майбутні Rubin GPU та нові процесори Grace і Vera як окремі продукти. Однак жодна зі сторін не розкрила загальну вартість контракту.
Бен Бажарін, генеральний директор та головний аналітик у технічній консалтинговій компанії Creative Strategies, оцінив, що цей пакет коштуватиме мільярди доларів. Крім того, технологічний портал The Register повідомив, що ця угода, ймовірно, додасть десятки мільярдів до прибутку Nvidia протягом її терміну дії. Це підкреслює, наскільки агресивно Meta масштабує свій вплив у сфері штучного інтелекту.
Генеральний директор Meta Марк Цукерберг вже раніше зазначав про цей перехід у пріоритетах витрат. Він оголосив, що Meta планує майже подвоїти інвестиції в інфраструктуру штучного інтелекту у 2026 році, з загальними витратами, що потенційно досягнуть 135 мільярдів доларів. Однак нова угода щодо чипів дає ринку більш чітке уявлення про те, куди спрямовуватимуться більшість цих капіталовкладень.
Стратегія процесорів Nvidia змінюється у напрямку інференційних навантажень
Найбільш вражаючим елементом угоди є не закупівля GPU, а рішення Meta масштабно впровадити процесори Nvidia як окремі продукти. До початку 2026 року процесор Grace майже виключно пропонувався у складі так званих Superchips, що поєднують CPU і GPU на одному модулі. Однак у січні 2026 року Nvidia офіційно змінила свою стратегію продажів і почала продавати ці процесори окремо.
Першим публічно названим клієнтом окремих CPU на той час стала компанія-інфраструктурний провайдер CoreWeave. Тепер Meta приєднується до цього списку, сигналізуючи про зростаючий попит на гнучкі архітектури на базі CPU. Це відповідає ширшому переходу в AI від тренування великих моделей до їхнього обслуговування у виробничих середовищах.
Компанія орієнтується на швидко зростаючий сегмент інференції. В останні роки сектор штучного інтелекту зосереджувався здебільшого на тренуванні великих моделей із високим навантаженням на GPU. Однак акцент дедалі більше зміщується на інференцію — процес запуску та масштабування навчальних систем. Для багатьох завдань інференції традиційні GPU є надмірними з точки зору вартості та енергоспоживання.
«Ми були в епосі «тренування», а тепер переходимо до «епохи інференції», яка вимагає зовсім іншого підходу», — сказав Бажарін у Financial Times. Однак цей перехід не зменшує попит на GPU; навпаки, він змінює баланс між навантаженнями GPU та CPU у гіпермасштабних дата-центрах.
Процесори Grace і Vera: технічні деталі та плани впровадження Meta
Іан Бак, віце-президент Nvidia та генеральний менеджер з гіпермасштабних систем і HPC, повідомив, згідно з The Register, що процесор Grace може «подвоїти продуктивність на ват у тих бекенд-навантаженнях», таких як обробка баз даних. Крім того, він зазначив, що «Meta вже мала можливість протестувати Vera та запустити деякі з цих навантажень, і результати виглядають дуже перспективними». Це підкреслює прагнення Nvidia оптимізувати енергоефективність для масштабної інференції та обробки даних.
Процесор Grace має 72 ядра Arm Neoverse V2 і використовує пам’ять LPDDR5x, що забезпечує переваги у пропускній здатності та в умовах обмеженого простору. У порівнянні, процесор Vera наступного покоління від Nvidia має 88 кастомних ядер Arm із підтримкою одночасного багатопоточності та вбудованими можливостями конфіденційних обчислень. Ці характеристики підкреслюють амбіції Nvidia конкурувати безпосередньо з усталеними постачальниками серверних процесорів.
За словами Nvidia, Meta планує використовувати Vera для приватної обробки та функцій штучного інтелекту у своєму зашифрованому месенджері WhatsApp. Впровадження Vera заплановано на 2027 рік, що свідчить про багаторічний план модернізації бекенд-інфраструктури Meta. Однак компанія не надала детальних термінів розгортання для кожного регіону дата-центру або конкретних сервісів, окрім месенджерів і безпеки.
Конкурентне середовище: Nvidia виходить на арену серверних процесорів
Перехід Nvidia до продажу процесорів як окремих продуктів ставить її в пряме конкурентне протистояння з Intel і AMD на прибутковому ринку серверів. Раніше більша частина зростання Nvidia базувалася на GPU, але додавання процесорів CPU дозволяє компанії мати більш повний портфель дата-центрів. Крім того, це дає можливість клієнтам створювати повні стеки з одного постачальника, а не змішувати компоненти від різних.
Придбавши окремі процесори Nvidia, Meta відхиляється від стратегії інших гіпермасштабних компаній. Amazon використовує власні процесори Graviton, а Google — свої кастомні чипи Axion. Meta ж купує у Nvidia, водночас продовжуючи розробляти власні прискорювачі AI. Однак у Financial Times повідомили, що внутрішні зусилля Meta щодо створення чипів «зіштовхнулися з технічними труднощами та затримками у впровадженні».
Для Nvidia конкуренція також посилюється. Google, Amazon і Microsoft за останні місяці оголосили про нові внутрішні чипи. Паралельно OpenAI спільно з Broadcom розробила процесор і підписала важливу угоду про постачання з AMD. Декілька стартапів, зокрема Cerebras, просувають спеціалізований інференційний силікон, який може зруйнувати домінування Nvidia при широкому впровадженні.
Ринкові напруженості, реакція акцій і стратегії багатьох постачальників
У грудні Nvidia придбала таланти з компанії Groq, що спеціалізується на інференційних чипах, у рамках ліцензійної угоди, щоб зміцнити свою технологічну базу у цій новій епосі інференційних обчислень. Однак настрої інвесторів залишаються чутливими до будь-яких ознак диверсифікації клієнтської бази. Наприкінці минулого року акції Nvidia знизилися на чотири відсотки після повідомлень про те, що Meta веде переговори з Google щодо використання Tensor Processing Units. Офіційних угод щодо TPU з того часу не оголошено.
Meta також не обмежується виключно обладнанням Nvidia. Згідно з The Register, компанія керує парком GPU AMD Instinct і брала участь у розробці систем ригів AMD Helios, які заплановані до випуску цього року. Крім того, цей багатовендорний підхід дає Meta важелі для переговорів щодо цін і допомагає зменшити ризики постачання у швидко зростаючій інфраструктурі Meta AI.
Зі зростанням дата-центрів Meta питання «чи продає Nvidia процесори» отримує практичне підтвердження через такі впровадження. Загальний договір Meta з Nvidia демонструє, що процесори Nvidia стають центральною частиною масштабних архітектур інференції, навіть тоді, коли гіпермасштабні компанії експериментують із власним кастомним силіконом і конкурентними платформами прискорювачів.
Підсумовуючи, багаторічна угода Meta щодо апаратного забезпечення підкреслює структурний перехід у AI від тренувальних GPU-кластерів до інференційних архітектур, оптимізованих під сучасні процесори, такі як Grace і Vera. Однак, з урахуванням конкуренції з боку Intel, AMD, хмарних процесорів і спеціалізованих стартапів, Nvidia стикається з складною боротьбою за перетворення своєї нової стратегії CPU у довгострокове домінування у дата-центрах.