「¿Cuánta potencia de cálculo comprar? Todo」: El cofundador de OpenAI afirma que 110 mil millones de dólares aún no satisfacen la demanda, y el preentrenamiento ya se ha orientado hacia la optimización conjunta de costos

BlockBeatNews

Según el monitoreo de 1M AI News, el cofundador de OpenAI, Greg Brockman, recordó en una entrevista el aumento explosivo de las capacidades de programación con IA que se produjo en diciembre de 2025. Para medir el progreso, utilizó un prompt de prueba que había conservado durante años: hacer que la IA construyera un sitio web que, cuando él aprendía a programar, le tomó varios meses terminar. Durante todo 2025, esa tarea requería múltiples rondas de prompts y unas cuatro horas para completarse; para diciembre, con un solo prompt ya estaba hecho, y además con buena calidad. Dijo que el nuevo modelo permitió que la IA pasara de “poder completar aproximadamente el 20% de las tareas” a “aproximadamente el 80%”, y que ese salto obligó a todos a “reorganizar los flujos de trabajo alrededor de la IA”.

Respecto al destino de la financiación de 11.000 millones de dólares, Brockman comparó el cómputo con “contratar a vendedores”: mientras el producto tenga canales de ventas escalables, contratar a más vendedores generará más ingresos. El cómputo no es un centro de costos, sino un centro de ingresos. Recordó una conversación con su equipo en vísperas del lanzamiento de ChatGPT: “Preguntaron ‘¿cuánto cómputo deberíamos comprar?’ Respondí ‘todo’. Dijeron ‘no, no, no, en serio, ¿cuánto exactamente deberíamos comprar?’ Respondí ‘no importa cómo lo construyamos, no alcanzaremos la demanda’.“ Ese juicio sigue siendo válido hasta hoy, y la compra de cómputo requiere asegurarla con 18 a 24 meses de anticipación.

Sobre cómo usar ese cómputo, Brockman reveló que OpenAI ya no busca simplemente el mayor tamaño de preentrenamiento, sino que optimiza conjuntamente las capacidades de preentrenamiento y los costos de inferencia: “No necesariamente tienes que hacerlo lo más grande posible, porque también tienes que considerar los muchos escenarios de uso de inferencia en el downstream; lo que realmente quieres es una solución óptima de inteligencia multiplicada por costo”. Pero también se opuso con claridad a la afirmación de que “el preentrenamiento ya no es importante”, y sostuvo que cuanto más inteligente sea el modelo base, más alta será la eficiencia de las etapas posteriores de aprendizaje por refuerzo e inferencia, y que “todavía” se “necesitan absolutamente” GPUs de Nvidia para respaldar el entrenamiento a gran escala y centralizado.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios