Meta aposta em CPUs Nvidia num acordo plurianual de infraestrutura de IA com processadores Grace e Vera

A Meta está a reformular a sua estratégia de infraestrutura de IA através de uma parceria de hardware abrangente que se centra em CPUs da Nvidia juntamente com GPUs de próxima geração.

Meta assina acordo plurianual com a Nvidia abrangendo GPUs e CPUs independentes

A empresa-mãe do Facebook, Meta, assinou um acordo plurianual com a Nvidia para adquirir milhões de chips, abrangendo tanto GPUs como, pela primeira vez, CPUs independentes. O acordo inclui as GPUs Blackwell atuais, as próximas GPUs Rubin e os novos processadores Grace e Vera como produtos autónomos. No entanto, nenhuma das partes revelou o valor total do contrato.

Ben Bajarin, CEO e analista principal da consultora tecnológica Creative Strategies, estimou que o pacote valeria bilhões de dólares. Além disso, o site de tecnologia The Register relatou que o acordo provavelmente acrescentará dezenas de bilhões ao resultado final da Nvidia ao longo do seu período. Isto sublinha o quão agressivamente a Meta está a expandir a sua presença em IA.

O CEO da Meta, Mark Zuckerberg, já tinha sinalizado esta mudança nas prioridades de investimento. Anunciou que a Meta planeia quase duplicar o seu investimento em infraestrutura de IA em 2026, com despesas totais potencialmente a atingir os 135 mil milhões de dólares. Dito isto, o novo acordo de chips oferece ao mercado uma visão mais clara de para onde irá grande parte desse capital.

A estratégia de CPUs da Nvidia orienta-se para cargas de trabalho de inferência

O elemento mais marcante do acordo não é a compra de GPUs, mas a decisão da Meta de adotar CPUs da Nvidia em grande escala como produtos independentes. Até início de 2026, o processador Grace era oferecido quase exclusivamente como parte dos chamados Superchips, que combinam uma CPU e uma GPU num único módulo. No entanto, a Nvidia alterou oficialmente a sua estratégia de vendas em janeiro de 2026 e começou a vender estas CPUs separadamente.

O primeiro cliente conhecido publicamente de CPUs independentes nessa altura foi o provedor de nuvem CoreWeave. Agora, a Meta junta-se a essa lista, sinalizando uma crescente procura por arquiteturas flexíveis baseadas em CPU. Isto alinha-se com uma transição mais ampla na IA, de treinar modelos massivos para os servir em ambientes de produção.

A empresa está a direcionar-se para o segmento de inferência, que está a crescer rapidamente. Nos últimos anos, o setor de IA concentrou-se fortemente no treino de grandes modelos com GPUs intensivas. No entanto, a ênfase está a mudar cada vez mais para a inferência, o processo de executar e escalar esses sistemas treinados. Para muitas tarefas de inferência, as GPUs tradicionais são excessivas em termos de custo e consumo de energia.

“Estávamos na era do ‘treinamento’, e agora estamos a avançar para a ‘era da inferência’, que exige uma abordagem completamente diferente,” afirmou Bajarin ao Financial Times. No entanto, esta mudança não elimina a procura por GPUs; antes, altera o equilíbrio entre cargas de trabalho de GPU e CPU dentro de centros de dados de grande escala.

CPUs Grace e Vera: detalhes técnicos e planos de implementação da Meta

Ian Buck, vice-presidente e diretor-geral da Nvidia para Hyperscale e HPC, afirmou, segundo o The Register, que o processador Grace pode “oferecer o dobro do desempenho por watt em cargas de trabalho de back-end” como a execução de bases de dados. Além disso, destacou que “a Meta já teve a oportunidade de testar o Vera e executar algumas dessas cargas de trabalho, e os resultados parecem muito promissores.” Isto evidencia o esforço da Nvidia para otimizar a eficiência energética para inferência em larga escala e processamento de dados.

A CPU Grace possui 72 núcleos Arm Neoverse V2 e utiliza memória LPDDR5x, que oferece vantagens em largura de banda e ambientes com restrições de espaço. Em contraste, a próxima geração de CPU Vera da Nvidia traz 88 núcleos Arm personalizados com multi-threading simultâneo e capacidades de computação confidencial integradas. Estas especificações reforçam a ambição da Nvidia de competir diretamente com fornecedores estabelecidos de CPUs para servidores.

Segundo a Nvidia, a Meta planeia usar o Vera para processamento privado e funcionalidades de IA no seu serviço de mensagens encriptadas WhatsApp. A implementação do Vera está prevista para 2027, indicando um roteiro plurianual para a modernização da infraestrutura de back-end da Meta. No entanto, a empresa ainda não forneceu cronogramas detalhados de implementação para cada região de centros de dados ou serviços específicos além de mensagens e cargas de trabalho relacionadas com segurança.

Panorama competitivo: Nvidia entra na arena de CPUs para servidores

A movimentação da Nvidia para vender CPUs como produtos independentes coloca-a em concorrência direta com a Intel e a AMD no lucrativo mercado de servidores. Anteriormente, grande parte do crescimento da Nvidia vinha das GPUs, mas a adição de CPUs oferece à empresa um portefólio mais completo de centros de dados. Além disso, permite aos clientes construir pilhas completas com o mesmo fornecedor, em vez de misturar componentes de diferentes fornecedores.

Ao adquirir CPUs independentes da Nvidia, a Meta está a divergir da estratégia seguida por outros hyperscalers. A Amazon depende dos seus próprios processadores Graviton, enquanto o Google aposta nos seus chips personalizados Axion. A Meta, por sua vez, compra da Nvidia, mesmo continuando a desenvolver os seus próprios aceleradores de IA. No entanto, o Financial Times relatou que os esforços internos de chips da Meta têm “enfrentado alguns desafios técnicos e atrasos na implementação.”

Para a Nvidia, a pressão competitiva também está a intensificar-se. O Google, Amazon e Microsoft anunciaram recentemente novos chips internos. Paralelamente, a OpenAI co-desenvolveu um processador com a Broadcom e assinou um acordo de fornecimento importante com a AMD. Várias startups, incluindo a Cerebras, estão a desenvolver silicon especializado para inferência, que poderá erodir o domínio da Nvidia se for amplamente adotado.

Tensões de mercado, reações das ações e estratégias multivendor

Em dezembro, a Nvidia adquiriu talento da empresa de chips de inferência Groq através de um acordo de licenciamento, com o objetivo de reforçar a sua base tecnológica nesta nova fase de computação de inferência. No entanto, o sentimento dos investidores permanece sensível a qualquer sinal de diversificação de clientes. No final do ano passado, as ações da Nvidia caíram quatro por cento após relatos de que a Meta estaria em negociações com o Google para usar unidades de processamento tensorial (TPUs). Desde então, não foi anunciado nenhum acordo formal sobre TPUs.

A Meta também não está exclusivamente dependente do hardware da Nvidia. Segundo o The Register, a empresa opera uma frota de GPUs AMD Instinct e participou diretamente no projeto dos sistemas de rack Helios da AMD, que estão previstos para lançamento ainda este ano. Além disso, esta abordagem multivendor dá à Meta poder de negociação em preços e ajuda a reduzir o risco de fornecimento na sua infraestrutura de IA em rápido crescimento.

À medida que a empresa expande os seus centros de dados, a questão “a Nvidia vende CPUs?” está a ser respondida na prática através de implementações como esta. O acordo mais amplo entre a Meta e a Nvidia demonstra como as CPUs da Nvidia estão a tornar-se uma peça central nas arquiteturas de inferência em larga escala, mesmo enquanto os hyperscalers experimentam com seus próprios silicon personalizados e plataformas rivais de aceleradores.

Em resumo, o acordo plurianual de hardware da Meta destaca uma transição estrutural na IA, de clusters de GPU focados em treino para arquiteturas otimizadas para inferência, construídas em torno de CPUs avançadas como Grace e Vera. No entanto, com a concorrência de Intel, AMD, processadores nativos de nuvem e startups especializadas, a Nvidia enfrenta uma batalha complexa para transformar a sua nova estratégia de CPUs numa dominação duradoura dos centros de dados.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)