Ex director general de IA de Tesla y miembro fundador de OpenAI, Andrej Karpathy, compartió en X la metodología central que utiliza personalmente con modelos de lenguaje grandes (LLM): el mayor valor de los LLM no es ayudarte a “simplificar la escritura”, sino ayudarte a “mejorar la lectura”. Propuso un proceso de lectura en tres capas, posicionando a los LLM como “amplificadores de lectura”; esta perspectiva desafía la idea predominante de la mayoría de la gente que ve a la IA principalmente como un acelerador de la escritura.
Método de lectura en tres capas: del texto original al análisis posterior del LLM
El proceso de procesamiento de información descrito por Karpathy se divide en tres capas: la primera es leer el documento original en sí; la segunda es pedirle al LLM que genere un resumen para captar rápidamente las ideas clave; la tercera —y también la más crucial— es pedirle al LLM que realice un “análisis posterior” (meta-analysis), evaluando qué ideas de este documento son “novedosas” o “sorprendentes” para su propio sistema de conocimientos existente.
La sutileza de este método radica en que no reemplaza el juicio humano con la IA, sino que optimiza la “asignación de la atención” de las personas. Cuando cada día se necesita digerir una gran cantidad de información, el filtrado de novedad de la tercera capa puede ayudar eficazmente a los lectores a concentrarse en el contenido que de verdad merece una lectura profunda.
Por qué el “amplificado de lectura” es más importante que el “acelerado de escritura”
La mayoría de las personas usa ChatGPT o Claude principalmente para generar texto: escribir cartas, informes y código. La visión de Karpathy es justo lo contrario: cree que el valor de los LLM en el lado de la entrada (ayudarte a absorber mejor la información) es muy superior al valor en el lado de la salida (ayudarte a producir texto más rápido).
La lógica detrás es la siguiente: en el trabajo del conocimiento, la calidad de la toma de decisiones depende de la calidad de la absorción de la información. Si lees lo correcto y entiendes las claves, la producción naturalmente seguirá. En cambio, si solo usas IA para acelerar la producción pero la calidad de la entrada no cambia, como mucho solo estarás “produciendo contenido mediocre más rápido”.
Riesgos y puntos ciegos: se necesita suficiente conocimiento del dominio como respaldo
Este método parte de una suposición previa: el usuario mismo necesita tener suficiente conocimiento del dominio para evaluar si el análisis del LLM es correcto. Si una persona completamente ajena a las cadenas de bloques le pide al LLM que evalúe la “novedad” de un artículo DeFi, es muy probable que termine siendo inducida al error por un resumen en el que el LLM sea confiado pero equivocado.
Además, también hay investigadores que sostienen una opinión diferente: que la capacidad de escritura de los LLM es la mayor mejora de productividad, y que la ayuda para la lectura es relativamente secundaria. La discrepancia entre ambas posturas refleja, en esencia, diferencias en el peso que distintos tipos de trabajo asignan a “entrada vs. salida”: los trabajos orientados a la investigación necesitan más un amplificador de lectura, mientras que los trabajos orientados a la ejecución necesitan más un acelerador de escritura.
Implicaciones para los trabajadores del conocimiento
El marco de Karpathy ofrece una forma práctica de usar IA para todos los trabajadores que consumen grandes cantidades de información: en lugar de dejar que la IA escriba por ti, deja que la IA te ayude a construir una canalización de “control de calidad de la entrada”. Concretamente, puedes hacer lo siguiente: cada día usar un LLM para escanear más de 20 artículos de la industria, hacer que la IA marque qué ideas son novedosas y luego que tú decidas cuáles merecen un reporte o investigación en profundidad. Este enfoque no te hace perder el juicio; al contrario, en la era de la sobrecarga de información, permite que la atención limitada se emplee en los lugares realmente importantes.
Este artículo, donde Karpathy presenta su método de lectura en tres capas para LLM: el mayor valor de la IA no está en la escritura, sino en ayudarte a entender el mundo, apareció por primera vez en Cadena de noticias ABMedia.