Хмарні гіганти ініціюють «революцію витрат на ШІ», настав час епохи ASIC! Технології Майвел(MRVL.US) швидко зростають у показниках

Зосереджено на великих дата-центрах штучного інтелекту та кастомізованих AI-чипах (тобто AI ASIC), а також як один із найбільших партнерів у масштабних проектах AI ASIC серії AWS Trainium від Amazon, MRVL.US оголосить фінансові результати після закриття торгів у США 5 березня за східним часом. Аналітики з Уолл-стріт одностайно очікують, що у зв’язку з хвилею інновацій у AI-розрахунках та трендом інтеграції великих AI-моделей у бізнес-процеси через «міні-навчання», більш вигідні AI ASIC суттєво порушать домінування NVIDIA на ринку AI-чипів, яке займає майже 90%. Тому аналітики прогнозують сильний приріст показників у лідерів ринку AI ASIC — MRVL та більшого гіганта ASIC — Broadcom (AVGO.US), а також очікують, що керівництво компанії надасть оптимістичний прогноз щодо майбутніх результатів.

У попередніх фінансових звітах за третій квартал 2026 фінансового року (з результатами станом на 1 листопада 2025 року) MRVL досяг чистого доходу близько 2,075 мільярда доларів США, що на 37% більше порівняно з попереднім роком і трохи перевищує очікування ринку. Скоригований прибуток на акцію також був вище прогнозів Уолл-стріт. Такий сильний результат у третьому кварталі відображає зростання попиту на кастомізовані AI ASIC, викликане бумом нових дата-центрів штучного інтелекту, що будуються та розширюються провідними гравцями у хмарних обчисленнях.

Згідно з даними аналітичної компанії Zacks Investment Research, очікується, що у четвертому кварталі MRVL скоригований прибуток на акцію становитиме приблизно 0,79 долара США, що на 31,7% більше порівняно з минулим роком; доходи за цей період прогнозуються на рівні близько 2,21 мільярда доларів, що дає приріст понад 21% у порівнянні з минулим роком. На весь фінансовий рік аналітики прогнозують прибуток на акцію у 2,84 долара, що на 80,9% більше за попередній рік. Щодо доходів, то у цьому році очікується 8,18 мільярда доларів, а у наступному — 10 мільярдів доларів, що відповідно становитиме зростання на 41,8% і 22,3%.

Крім того, після завершення придбання компанії, що спеціалізується на оптичних інтерфейсах, MRVL зміцнила свої позиції у високошвидкісних, низьколатентних інфраструктурах AI-датacenterів. Очікується, що ця угода поступово додасть до доходів компанії у найближчі роки та допоможе збільшити частку на ринку AI-екосистеми. У фінансовому звіті також було повідомлено про намір придбати стартап Celestial AI за 3,25 мільярда доларів для посилення свого портфоліо мережевих продуктів, зосереджених на оптичних інтерфейсах.

Генеральний директор MRVL Метью Мерфі під час телефонної конференції зазначив, що технології Celestial будуть інтегровані у нове покоління апаратного забезпечення з оптичними фотонними компонентами, що відкриє для компанії новий ринок із потенціалом до 100 мільярдів доларів.

Він також додав, що з другого півріччя 2028 року MRVL очікує значного доходу від бізнесу Celestial AI, а до четвертого кварталу 2028 року — приблизно 500 мільйонів доларів на рік, а до четвертого кварталу 2029 року — подвоєння цієї суми до 1 мільярда доларів.

Ринкові побоювання щодо перспектив NVIDIA є обґрунтованими

Глобальна хвиля генеративного AI прискорила розробку AI-чипів великими гравцями у хмарних обчисленнях та виробництві чипів, які змагаються за створення найшвидших та найефективніших AI-інфраструктур для великих дата-центрів. MRVL і його головний конкурент Broadcom зосереджені на використанні своїх переваг у високошвидкісних мережах та IP-чипах для спільної роботи з гігантами хмарних сервісів — Amazon, Google і Microsoft — для створення кастомізованих AI ASIC, що відповідають їхнім конкретним потребам. Цей напрямок вже став однією з ключових сфер діяльності обох компаній, наприклад, TPU від Google — класичний приклад AI ASIC-технології.

Після недавнього інтерв’ю Пітера ДеСантіса, керівника інфраструктури штучного інтелекту в Amazon, він заявив: «Якщо ми зможемо створювати моделі на власних AI-чипах, то зможемо знизити вартість моделей до мінімуму, порівняно з вартістю великих постачальників AI-моделей.»

ДеСантіс додав: «Будівництво надмасштабних AI-датacenterів — це дорого. Якщо ми хочемо, щоб AI змінив усе, вартість має бути іншою.»

Ринок вважає, що «гігант AI-чипів» NVIDIA (NVDA.US) досі контролює більшу частину ринку AI-інфраструктури, зосередженого на AI-чипах. Компанія під керівництвом Дженсена Ху оголосила про рекордний квартальний результат і позитивний прогноз на наступний квартал, але її акції у четвер впали на 5%, оскільки зростає занепокоєння щодо того, що гіганти хмарних сервісів починають активно розробляти власні AI ASIC, що може поставити під загрозу домінування NVIDIA у цій сфері.

Без сумніву, з огляду на плани Anthropic витратити сотні мільярдів доларів на купівлю 1 мільйона TPU-чипів і Meta, що розглядає можливість інвестувати десятки мільярдів у Google TPU для своїх дата-центрів, а також Amazon, що планує використовувати Trainium і Inferentia для великих моделей, ринок усвідомлює, що перспективи NVIDIA у цій галузі є під загрозою.

** Хвиля AI-розрахунків для inference викликає сильний тиск на NVIDIA**

Безперечно, обмеження у економічності та енергоспоживанні змушують Microsoft, Amazon, Google і Meta розробляти власні AI-чипи для внутрішніх систем хмарних обчислень, щоб підвищити співвідношення ціна/продуктивність та енергоефективність AI-інфраструктур.

Вартість будівництва великих AI-датacenterів дуже висока, тому технологічні гіганти прагнуть зробити AI-інфраструктуру більш економічною та енергоефективною, зосереджуючись на зниженні вартості на один токен, споживаної потужності та підвищенні ефективності з’єднань. Це сприяє буму в технології AI ASIC.

Крім того, довгостроковий попит на AI GPU архітектури, наприклад, NVIDIA Blackwell, високі ціни та проблеми з ланцюгами постачання стимулюють розробку власних AI ASIC, що дозволяє компаніям мати «другу криву» потужностей і краще контролювати ціноутворення та прибутковість хмарних сервісів, а також підвищувати ефективність використання інфраструктури та знижувати TCO.

Для тренувань AI-моделей NVIDIA GPU майже монополізували цю нішу, але для inference важливіше зменшення вартості на один токен, затримки та енергоефективність. Наприклад, Google позиціонує Ironwood як «чип для епохи AI inference», з високою продуктивністю та масштабованістю. Водночас, останні кроки Amazon демонструють потенціал AI ASIC для тренування великих моделей.

Безперечно, у середньо- та довгостроковій перспективі AI ASIC зменшать домінування NVIDIA у цій галузі, але не зможуть повністю замінити GPU. Основна причина — у тому, що у епоху inference ключовими є не лише «пікові» обчислювальні потужності, а й вартість на один токен, енергоспоживання, пропускна здатність пам’яті, ефективність з’єднань і сумісність апаратного та програмного забезпечення. ASIC, спеціально налаштовані під конкретні завдання, природно, мають переваги у співвідношенні ціна/якість.

Для NVIDIA та AMD це означає, що маржа та частка ринку можуть зменшитися, але не зникнути повністю. AI ASIC у хвилі AI inference безперечно порушить монополію GPU, але швидше переформатує прибуткові моделі галузі та структуру закупівель клієнтів, ніж повністю знищить логіку розширення GPU.

AWS чітко позиціонує Trainium і Inferentia як спеціальні прискорювачі для тренування та inference генеративних моделей, причому Trainium 2 пропонує на 30–40% кращу цінову продуктивність порівняно з GPU-інстансами. Google також повідомила, що Gemini 2.0 для тренування та inference працює 100% на TPU. Це свідчить, що використання власних ASIC для тренування та inference великих моделей вже перейшло у стадію промислової реалізації.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити