Lo más importante de hoy es la conferencia GTC de NVIDIA, prácticamente una historia de la humanidad en versión IA.

robot
Generación de resúmenes en curso

Hoy, lo más importante es la conferencia GTC de Nvidia, que es prácticamente una versión de IA de la historia de la humanidad.

Jensen Huang aún no ha subido al escenario, y la cantidad de información filtrada ya es suficiente para escribir un libro.

Lanlan ha organizado tres puntos clave, vamos amigos, síganme.

  1. El costo de la potencia de cálculo de IA se reduce directamente a una décima parte.

La generación anterior, Blackwell, ya era impresionante, ¿verdad? Pronto se anunciará la producción en masa del nuevo chip Vera Rubin.

¿En qué es impresionante Vera Rubin? En pocas palabras, dos palabras: barato.

Ejecutando el mismo modelo de IA, el número de chips se reduce a una cuarta parte, y el costo de cálculo de inferencia disminuye en un 90%. Un 90% amigos. Los tres grandes proveedores de la nube, AWS, Microsoft y Google, son los primeros en subirse al tren.

  1. Groq, que se compró por 20 mil millones de dólares el año pasado, entrega hoy su tarea.

Anteriormente, Jensen Huang mencionó en la llamada de resultados que Groq se integraría como una arquitectura de expansión en el sistema de Nvidia, al igual que cuando adquirieron Mellanox para completar la capacidad de red.

El LPU de Groq y la GPU de Nvidia estarán en el mismo centro de datos, la GPU entiende el problema, y el LPU se encarga de proporcionar respuestas rápidamente.

La cooperación de los dos tipos de chips reduce directamente la latencia en escenarios de agentes.

Los agentes de IA trabajan para las personas, un solo tarea puede requerir ajustar el modelo decenas de veces, cada ronda consume potencia de inferencia, y los usuarios están ahí esperando, si es lento la experiencia se arruina.

La inferencia se divide en dos pasos, primero entender tu pregunta, y luego, palabra por palabra, proporcionar la respuesta.

La GPU es buena en el primer paso, pero en el segundo, la velocidad y estabilidad de la LPU de Groq son superiores.

¿20 mil millones es caro?

Piénsalo, cada empresa ejecutará cientos de agentes, y cada agente ajustará modelos miles de veces al día.

  1. La versión de Nvidia de OpenClaw se lanza, se llama NemoClaw.

Es una plataforma de código abierto que, al ser instalada por las empresas, puede desplegar empleados de IA para ejecutar procesos, manejar datos y gestionar proyectos. Se dice que ya están en conversaciones con Salesforce y Adobe.

Lo interesante es que NemoClaw no requiere que uses los chips de Nvidia. Piénsalo un momento. Vender chips solo gana dinero a nivel de hardware, establecer reglas es lo que permite ganar dinero a lo largo de toda la cadena. Jensen Huang tiene claro este cálculo.

  1. Jensen Huang dice que mostrará “chips que el mundo nunca ha visto”.

Es muy probable que se trate de la primera aparición de la próxima arquitectura Feynman, que se producirá en 2028, utilizando el proceso de 1.6nm más avanzado de TSMC.

Además, hay otra información poco conocida que creo que es bastante interesante.

Nvidia ha sacado procesadores para laptops, dos modelos, enfocados en juegos. Los que venden tarjetas gráficas van a entrar en el negocio de los CPU.

Lanlan, siento que Jensen Huang está destinado a convertirse en un gran líder en el futuro.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado