Meta está redefiniendo su estrategia de infraestructura de IA a través de una asociación de hardware integral que se centra en CPUs de Nvidia junto con GPUs de próxima generación.
Meta firma un acuerdo multianual con Nvidia que abarca GPUs y CPUs independientes
La empresa matriz de Facebook, Meta, ha firmado un acuerdo multianual con Nvidia para comprar millones de chips, cubriendo tanto GPUs como, por primera vez, CPUs independientes. El acuerdo incluye las GPUs Blackwell actuales, las próximas GPUs Rubin y los nuevos procesadores Grace y Vera como productos independientes. Sin embargo, ninguna de las partes ha divulgado el valor total del contrato.
Ben Bajarin, CEO y analista principal de la consultora tecnológica Creative Strategies, estimó que el paquete valdría miles de millones de dólares. Además, el medio tecnológico The Register informó que el acuerdo probablemente añadirá decenas de miles de millones a los resultados de Nvidia durante su vigencia. Esto subraya qué tan agresivamente Meta está ampliando su presencia en IA.
El CEO de Meta, Mark Zuckerberg, ya había señalado este cambio en las prioridades de gasto. Anunció que Meta planea casi duplicar su inversión en infraestructura de IA en 2026, con desembolsos totales que podrían alcanzar los 135 mil millones de dólares. Dicho esto, el nuevo acuerdo de chips ofrece al mercado una visión más clara de hacia dónde irá gran parte de ese capital.
La estrategia de CPUs de Nvidia se orienta hacia cargas de trabajo de inferencia
El elemento más destacado del acuerdo no es la compra de GPUs, sino la decisión de Meta de adoptar CPUs de Nvidia a gran escala como productos independientes. Hasta principios de 2026, el procesador Grace se ofrecía casi exclusivamente como parte de los llamados Superchips, que combinan una CPU y una GPU en un solo módulo. Sin embargo, Nvidia cambió oficialmente su estrategia de ventas en enero de 2026 y comenzó a vender estas CPUs por separado.
El primer cliente conocido públicamente de CPUs independientes en ese momento fue el proveedor de nube neocloud CoreWeave. Ahora, Meta se une a esa lista, lo que indica una demanda creciente de arquitecturas flexibles basadas en CPU. Esto se alinea con una transición más amplia en IA, de entrenar modelos masivos a servirlos en entornos de producción.
La compañía apunta al segmento de inferencia en rápido crecimiento. En los últimos años, el sector de IA se centró mucho en el entrenamiento intensivo en GPU de modelos grandes. Sin embargo, la atención se está desplazando cada vez más hacia la inferencia, el proceso de ejecutar y escalar esos sistemas entrenados. Para muchas tareas de inferencia, las GPUs tradicionales son excesivas en términos de costo y consumo de energía.
“Estábamos en la era del ‘entrenamiento’, y ahora nos movemos más hacia la ‘era de la inferencia’, que exige un enfoque completamente diferente”, dijo Bajarin al Financial Times. Dicho esto, este cambio no elimina la demanda de GPUs; en cambio, modifica el equilibrio entre cargas de trabajo de GPU y CPU dentro de los centros de datos de escala hyperscale.
CPUs Grace y Vera: detalles técnicos y planes de despliegue de Meta
Ian Buck, vicepresidente y director general de Hyperscale y HPC de Nvidia, afirmó, según The Register, que el procesador Grace puede “ofrecer el doble de rendimiento por vatio en esas cargas de trabajo de backend”, como la gestión de bases de datos. Además, señaló que “Meta ya ha tenido la oportunidad de usar Vera y ejecutar algunas de esas cargas de trabajo, y los resultados parecen muy prometedores”. Esto destaca el esfuerzo de Nvidia por optimizar la eficiencia energética para la inferencia a gran escala y el procesamiento de datos.
El CPU Grace cuenta con 72 núcleos Arm Neoverse V2 y utiliza memoria LPDDR5x, que ofrece ventajas en ancho de banda y en entornos con restricciones de espacio. En contraste, el CPU Vera de próxima generación de Nvidia trae 88 núcleos Arm personalizados con multi-threading simultáneo y capacidades de computación confidencial integradas. Estas especificaciones subrayan la ambición de Nvidia de competir directamente con los proveedores establecidos de CPUs para servidores.
Según Nvidia, Meta planea usar Vera para procesamiento privado y funciones de IA en su servicio de mensajería cifrada WhatsApp. El despliegue de Vera está previsto para 2027, lo que indica una hoja de ruta plurianual para la modernización de la infraestructura de backend de Meta. Sin embargo, la compañía no ha proporcionado cronogramas detallados de implementación para cada región de centros de datos ni para servicios específicos más allá de mensajería y cargas de trabajo relacionadas con seguridad.
Escenario competitivo: Nvidia entra en el mercado de CPUs para servidores
El movimiento de Nvidia de vender CPUs como productos independientes la coloca en competencia directa con Intel y AMD en el lucrativo mercado de servidores. Anteriormente, gran parte del crecimiento de Nvidia provenía de GPUs, pero la incorporación de CPUs le proporciona un portafolio más completo para centros de datos. Además, permite a los clientes construir pilas completas con un mismo proveedor en lugar de mezclar componentes de diferentes suministradores.
Al comprar CPUs independientes de Nvidia, Meta se desvía de la estrategia seguida por otros hyperscalers. Amazon confía en sus propios procesadores Graviton, mientras que Google apuesta por sus chips Axion personalizados. Meta, en cambio, compra a Nvidia, aunque continúa diseñando sus propios aceleradores de IA. Sin embargo, el Financial Times informó que los esfuerzos internos de Meta en chips “han enfrentado algunos desafíos técnicos y retrasos en el despliegue”.
Para Nvidia, la presión competitiva también se intensifica. Google, Amazon y Microsoft han anunciado en los últimos meses nuevos chips internos. Paralelamente, OpenAI ha co-desarrollado un procesador con Broadcom y firmado un acuerdo de suministro importante con AMD. Varias startups, como Cerebras, están impulsando silicon especializados en inferencia que podrían erosionar el dominio de Nvidia si se adoptan ampliamente.
Tensiones en el mercado, reacciones en las acciones y estrategias multivendedor
En diciembre, Nvidia adquirió talento de la empresa de chips de inferencia Groq mediante un acuerdo de licencia, con el objetivo de reforzar su base tecnológica en esta nueva fase de computación de inferencia. Sin embargo, el sentimiento de los inversores sigue siendo sensible a cualquier señal de diversificación de clientes. A finales del año pasado, las acciones de Nvidia cayeron un cuatro por ciento tras informes que sugerían que Meta estaba en conversaciones con Google sobre el uso de unidades de procesamiento tensorial. Desde entonces, no se ha anunciado ningún acuerdo formal sobre TPUs.
Meta tampoco está exclusivamente vinculada al hardware de Nvidia. Según The Register, la compañía opera una flota de GPUs AMD Instinct y participó directamente en el diseño de los sistemas en rack Helios de AMD, que están programados para su lanzamiento este año. Además, este enfoque multivendedor le da a Meta poder de negociación en precios y ayuda a reducir el riesgo de suministro en su infraestructura de IA en rápido crecimiento.
A medida que la compañía expande sus centros de datos, la pregunta “¿vende Nvidia CPUs?” se responde en la práctica a través de despliegues como este. El acuerdo más amplio entre Meta y Nvidia muestra cómo las CPUs de Nvidia están convirtiéndose en una pieza central de arquitecturas de inferencia a gran escala, incluso cuando los hyperscalers experimentan con sus propios silicon personalizados y plataformas rivales de aceleradores.
En resumen, el acuerdo multianual de hardware de Meta subraya una transición estructural en IA, de clústeres de GPU enfocados en entrenamiento a arquitecturas optimizadas para inferencia construidas alrededor de CPUs avanzadas como Grace y Vera. Sin embargo, con Intel, AMD, procesadores nativos en la nube y startups especializadas compitiendo por las mismas cargas de trabajo, Nvidia enfrenta una batalla compleja para convertir su nueva estrategia de CPUs en un dominio duradero en los centros de datos.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Meta apuesta por los CPUs de Nvidia en un acuerdo plurianual de infraestructura de IA con procesadores Grace y Vera
Meta está redefiniendo su estrategia de infraestructura de IA a través de una asociación de hardware integral que se centra en CPUs de Nvidia junto con GPUs de próxima generación.
Meta firma un acuerdo multianual con Nvidia que abarca GPUs y CPUs independientes
La empresa matriz de Facebook, Meta, ha firmado un acuerdo multianual con Nvidia para comprar millones de chips, cubriendo tanto GPUs como, por primera vez, CPUs independientes. El acuerdo incluye las GPUs Blackwell actuales, las próximas GPUs Rubin y los nuevos procesadores Grace y Vera como productos independientes. Sin embargo, ninguna de las partes ha divulgado el valor total del contrato.
Ben Bajarin, CEO y analista principal de la consultora tecnológica Creative Strategies, estimó que el paquete valdría miles de millones de dólares. Además, el medio tecnológico The Register informó que el acuerdo probablemente añadirá decenas de miles de millones a los resultados de Nvidia durante su vigencia. Esto subraya qué tan agresivamente Meta está ampliando su presencia en IA.
El CEO de Meta, Mark Zuckerberg, ya había señalado este cambio en las prioridades de gasto. Anunció que Meta planea casi duplicar su inversión en infraestructura de IA en 2026, con desembolsos totales que podrían alcanzar los 135 mil millones de dólares. Dicho esto, el nuevo acuerdo de chips ofrece al mercado una visión más clara de hacia dónde irá gran parte de ese capital.
La estrategia de CPUs de Nvidia se orienta hacia cargas de trabajo de inferencia
El elemento más destacado del acuerdo no es la compra de GPUs, sino la decisión de Meta de adoptar CPUs de Nvidia a gran escala como productos independientes. Hasta principios de 2026, el procesador Grace se ofrecía casi exclusivamente como parte de los llamados Superchips, que combinan una CPU y una GPU en un solo módulo. Sin embargo, Nvidia cambió oficialmente su estrategia de ventas en enero de 2026 y comenzó a vender estas CPUs por separado.
El primer cliente conocido públicamente de CPUs independientes en ese momento fue el proveedor de nube neocloud CoreWeave. Ahora, Meta se une a esa lista, lo que indica una demanda creciente de arquitecturas flexibles basadas en CPU. Esto se alinea con una transición más amplia en IA, de entrenar modelos masivos a servirlos en entornos de producción.
La compañía apunta al segmento de inferencia en rápido crecimiento. En los últimos años, el sector de IA se centró mucho en el entrenamiento intensivo en GPU de modelos grandes. Sin embargo, la atención se está desplazando cada vez más hacia la inferencia, el proceso de ejecutar y escalar esos sistemas entrenados. Para muchas tareas de inferencia, las GPUs tradicionales son excesivas en términos de costo y consumo de energía.
“Estábamos en la era del ‘entrenamiento’, y ahora nos movemos más hacia la ‘era de la inferencia’, que exige un enfoque completamente diferente”, dijo Bajarin al Financial Times. Dicho esto, este cambio no elimina la demanda de GPUs; en cambio, modifica el equilibrio entre cargas de trabajo de GPU y CPU dentro de los centros de datos de escala hyperscale.
CPUs Grace y Vera: detalles técnicos y planes de despliegue de Meta
Ian Buck, vicepresidente y director general de Hyperscale y HPC de Nvidia, afirmó, según The Register, que el procesador Grace puede “ofrecer el doble de rendimiento por vatio en esas cargas de trabajo de backend”, como la gestión de bases de datos. Además, señaló que “Meta ya ha tenido la oportunidad de usar Vera y ejecutar algunas de esas cargas de trabajo, y los resultados parecen muy prometedores”. Esto destaca el esfuerzo de Nvidia por optimizar la eficiencia energética para la inferencia a gran escala y el procesamiento de datos.
El CPU Grace cuenta con 72 núcleos Arm Neoverse V2 y utiliza memoria LPDDR5x, que ofrece ventajas en ancho de banda y en entornos con restricciones de espacio. En contraste, el CPU Vera de próxima generación de Nvidia trae 88 núcleos Arm personalizados con multi-threading simultáneo y capacidades de computación confidencial integradas. Estas especificaciones subrayan la ambición de Nvidia de competir directamente con los proveedores establecidos de CPUs para servidores.
Según Nvidia, Meta planea usar Vera para procesamiento privado y funciones de IA en su servicio de mensajería cifrada WhatsApp. El despliegue de Vera está previsto para 2027, lo que indica una hoja de ruta plurianual para la modernización de la infraestructura de backend de Meta. Sin embargo, la compañía no ha proporcionado cronogramas detallados de implementación para cada región de centros de datos ni para servicios específicos más allá de mensajería y cargas de trabajo relacionadas con seguridad.
Escenario competitivo: Nvidia entra en el mercado de CPUs para servidores
El movimiento de Nvidia de vender CPUs como productos independientes la coloca en competencia directa con Intel y AMD en el lucrativo mercado de servidores. Anteriormente, gran parte del crecimiento de Nvidia provenía de GPUs, pero la incorporación de CPUs le proporciona un portafolio más completo para centros de datos. Además, permite a los clientes construir pilas completas con un mismo proveedor en lugar de mezclar componentes de diferentes suministradores.
Al comprar CPUs independientes de Nvidia, Meta se desvía de la estrategia seguida por otros hyperscalers. Amazon confía en sus propios procesadores Graviton, mientras que Google apuesta por sus chips Axion personalizados. Meta, en cambio, compra a Nvidia, aunque continúa diseñando sus propios aceleradores de IA. Sin embargo, el Financial Times informó que los esfuerzos internos de Meta en chips “han enfrentado algunos desafíos técnicos y retrasos en el despliegue”.
Para Nvidia, la presión competitiva también se intensifica. Google, Amazon y Microsoft han anunciado en los últimos meses nuevos chips internos. Paralelamente, OpenAI ha co-desarrollado un procesador con Broadcom y firmado un acuerdo de suministro importante con AMD. Varias startups, como Cerebras, están impulsando silicon especializados en inferencia que podrían erosionar el dominio de Nvidia si se adoptan ampliamente.
Tensiones en el mercado, reacciones en las acciones y estrategias multivendedor
En diciembre, Nvidia adquirió talento de la empresa de chips de inferencia Groq mediante un acuerdo de licencia, con el objetivo de reforzar su base tecnológica en esta nueva fase de computación de inferencia. Sin embargo, el sentimiento de los inversores sigue siendo sensible a cualquier señal de diversificación de clientes. A finales del año pasado, las acciones de Nvidia cayeron un cuatro por ciento tras informes que sugerían que Meta estaba en conversaciones con Google sobre el uso de unidades de procesamiento tensorial. Desde entonces, no se ha anunciado ningún acuerdo formal sobre TPUs.
Meta tampoco está exclusivamente vinculada al hardware de Nvidia. Según The Register, la compañía opera una flota de GPUs AMD Instinct y participó directamente en el diseño de los sistemas en rack Helios de AMD, que están programados para su lanzamiento este año. Además, este enfoque multivendedor le da a Meta poder de negociación en precios y ayuda a reducir el riesgo de suministro en su infraestructura de IA en rápido crecimiento.
A medida que la compañía expande sus centros de datos, la pregunta “¿vende Nvidia CPUs?” se responde en la práctica a través de despliegues como este. El acuerdo más amplio entre Meta y Nvidia muestra cómo las CPUs de Nvidia están convirtiéndose en una pieza central de arquitecturas de inferencia a gran escala, incluso cuando los hyperscalers experimentan con sus propios silicon personalizados y plataformas rivales de aceleradores.
En resumen, el acuerdo multianual de hardware de Meta subraya una transición estructural en IA, de clústeres de GPU enfocados en entrenamiento a arquitecturas optimizadas para inferencia construidas alrededor de CPUs avanzadas como Grace y Vera. Sin embargo, con Intel, AMD, procesadores nativos en la nube y startups especializadas compitiendo por las mismas cargas de trabajo, Nvidia enfrenta una batalla compleja para convertir su nueva estrategia de CPUs en un dominio duradero en los centros de datos.