El 8 de enero de 2026, Zhipu alcanzó un hito histórico al convertirse en la primera empresa de modelos de lenguaje grande cotizada públicamente en el mundo—una hazaña notable que ni los analistas ni los competidores anticipaban posible. En el mismo día, Tang Jie, profesor de ciencias de la computación en la Universidad Tsinghua y visionario fundador de Zhipu, publicó una carta interna integral que señalaba un drástico reajuste estratégico. En lugar de celebrar victorias comerciales, el mensaje de Jie enfatizó un retorno filosófico: la búsqueda implacable de la excelencia en modelos fundamentales como el único camino hacia la inteligencia artificial general. La carta descarta narrativas de comercialización a corto plazo y en cambio articula una ambiciosa agenda para 2026 centrada en el inminente lanzamiento de GLM-5 junto con tres enfoques tecnológicos transformadores—nuevas arquitecturas de modelos, aprendizaje por refuerzo generalizado y capacidades de aprendizaje continuo.
La Conversación de Café que Redefinió la Misión de Zhipu
Durante una visita al café del laboratorio de la Universidad de Ciencia y Tecnología de Hong Kong, Tang Jie se encontró con el distinguido profesor Yang Qiang y compartió una observación casual: había estado consumiendo cantidades excesivas de café últimamente. La respuesta de Yang cambió completamente el tono de la conversación: “La adicción no es necesariamente negativa. Imagina si pudiéramos canalizar nuestra adicción al café hacia la investigación con igual intensidad—¿no lograríamos cosas extraordinarias?” Este diálogo simple encapsula la base filosófica de Zhipu y la visión del mundo de Jie.
Desde la creación oficial de Zhipu en 2019, la compañía ha operado bajo un principio unificador—“hacer que las máquinas piensen como humanos.” La inspiración se remonta a 2018, cuando Tang Jie y su colectivo de investigación diseñaron un sistema cognitivo de máquina que incorporaba la teoría de doble sistema de la psicología cognitiva humana, combinando paradigmas de pensamiento rápido y lento. Sin embargo, a pesar de más de tres años de desarrollo acelerado en la industria desde la aparición de ChatGPT, Tang Jie observó en discusiones internas recientes que “aún no existe un consenso genuino en la industria; todos avanzan mediante prueba y error.”
De GLM-130B a Reconocimiento SOTA: El Punto de Inflexión Técnico
El recorrido técnico de Zhipu revela un patrón de toma de riesgos calculados, a menudo desafiando la ortodoxia de la industria. En 2020, cuando los modelos a escala BERT dominaban el discurso, la compañía lanzó su arquitectura algorítmica propietaria GLM y entrenó un modelo base de 10 mil millones de parámetros—una movida audaz que atrajo a primeros adoptantes como Meituan. Lo crucial es que este éxito permanecía lejos de las aspiraciones de AGI debido a limitaciones arquitectónicas: bases de conocimiento insuficientes y ausencia de capacidades de razonamiento a nivel humano.
El período 2021-2022 resultó decisivo. Mientras la mayoría de los actores de la industria descartaban la visión de “máquinas pensando como humanos” como una fantasía utópica, Zhipu apostó por ella. La compañía entrenó un modelo de 130 mil millones de parámetros en conjuntos de datos exponencialmente ampliados, estableciendo dos divisiones de innovación paralelas con independencia operativa: el trío de investigación GLM enfocado en entrenamiento de modelos, y un equipo separado que construía la plataforma MaaS que eventualmente alimentaría bigmodel.cn. Para mediados de 2022, GLM-130B logró avances técnicos que captaron la atención global, mientras acumulaba los primeros usuarios de API en producción—un punto de validación crítico que distinguió a Zhipu de los centros de investigación puros.
El fenómeno DeepSeek, sin embargo, reconfiguró la dinámica competitiva. Su aparición en 2025 creó lo que los observadores llamaron una “onda de choque entre las empresas chinas de modelos grandes”, impactando particularmente a Zhipu debido a la herencia compartida en el equipo de investigación académica y contribuciones en ecosistemas de código abierto. En lugar de adoptar una postura defensiva, Tang Jie reformula la presión competitiva como un proceso de clarificación: “DeepSeek nos despertó,” catalizando una “reforzamiento” sistemático en ámbitos técnicos y comerciales.
La Convergencia GLM: Cómo Zhipu Alcanzó la Frontera Global
La ejecución de Zhipu en 2025 respecto a sus hitos estratégicos internos fue notablemente precisa. La compañía lanzó en abril un modelo “estabilizador” (GLM-4.1), alcanzó en mitad de año el estatus de “tener asiento en la mesa” con GLM-4.5, y cerró el año con GLM-4.7—posicionado como un contendiente de primer nivel entre los modelos fundamentales globales. Según los índices de evaluación de Artificial Analysis, GLM-4.7 ocupó el primer lugar a nivel nacional y logró paridad global con Claude 4.5 Sonnet.
El catalizador de este avance fue, inesperadamente, la codificación. Cuando el mercado en general se sumió en guerras de precios y narrativas de commoditización, Zhipu identificó la generación de código como el punto de entrada preciso que la diferenciaba de los competidores. El lanzamiento en julio de GLM-4.5 fue la participación decisiva—con equipos técnicos, de plataforma y comerciales operando en modo sprint de alto riesgo. Tras la victoria, las iteraciones GLM-4.6 y GLM-4.7 sistematizaron la ventaja: desarrolladores de 184 países (más de 150,000 personas) participaron en el Plan de Codificación GLM, generando entusiasmo profesional y una velocidad de adopción medible.
La Explosión de Ingresos: La Economía de MaaS Validada
La validación comercial fue contundente. En solo diez meses, la trayectoria de ingresos anuales de la plataforma MaaS de Zhipu creció de 20 millones a 500 millones—una multiplicación por veinticinco que redefine fundamentalmente los cálculos de ROI competitivo. Notablemente, los ingresos en el extranjero superaron los 200 millones, sugiriendo que los mercados fuera de China representan aproximadamente el 40% de la economía de la plataforma. Este rendimiento contrasta marcadamente con las narrativas públicas que indican que la economía de los modelos grandes chinos aún es inmadura.
La dimensión internacional merece especial énfasis. La iniciativa “IA Soberana” de Zhipu aprovechó la infraestructura nacional de MaaS de Malasia para establecer a GLM como el modelo grande oficial de ese país—el primer caso documentado de tecnología de modelos fundamentales chinos que logra integración gubernamental a nivel global. Tang Jie atribuyó este avance a la “audacia y determinación” del equipo internacional, posicionando la expansión internacional como una respuesta estratégica al llamado de Beijing para que la IA china alcance despliegue global.
El Manifiesto Técnico 2026 de Jie: Derribando Paradigmas Establecidos
En lugar de buscar optimizaciones incrementales, la agenda 2026 de Tang Jie apunta a una disrupción arquitectónica fundamental. La carta identifica cuatro vectores prioritarios:
Lanzamiento de GLM-5: A través de mejoras en escalado y avances técnicos multivectoriales, el próximo modelo de generación busca ofrecer capacidades sin precedentes en tareas del mundo real, estableciendo un nuevo estándar de rendimiento.
Exploración de Nuevas Arquitecturas de Modelos: El paradigma Transformer—dominante por casi diez años—muestra limitaciones crecientes en computación de contextos ultra largos, mecanismos de memoria y protocolos de actualización. Zhipu se compromete a descubrir nuevos paradigmas arquitectónicos mientras persigue la co-diseño de chips y algoritmos.
Aprendizaje por Refuerzo Generalizado: Los enfoques actuales de RLVR sobresalen en dominios acotados (matemáticas, código) pero revelan limitaciones estructurales en entornos sin restricciones. El objetivo 2026 apunta a paradigmas de RL que permitan a los sistemas de IA analizar y ejecutar tareas temporales extendidas—horas o días—yendo más allá de seguir instrucciones hacia una verdadera agencia.
Aprendizaje Continuo y Evolución Autónoma: Los modelos de IA en producción actualmente poseen una inteligencia fundamentalmente estática tras su despliegue. Acumulan conocimiento mediante ciclos de entrenamiento costosos y, con el tiempo, se deprecian a medida que cambian los contextos reales. Zhipu busca diseñar paradigmas de aprendizaje de próxima generación que reflejen la plasticidad neural humana—marcos de aprendizaje en línea y continuo que permitan interacción persistente con el mundo y acumulación de capacidades.
Innovación Institucional: La Apuesta del X-Lab por la Disrupción
Reconociendo que la inercia organizacional tiende a la optimización incremental, Zhipu creó una división de investigación experimental llamada X-Lab. Diseñada para reclutar talento mediante mecanismos abiertos, X-Lab persigue exploraciones de vanguardia en nuevas arquitecturas, paradigmas cognitivos emergentes y incubación de proyectos diversos—sin estar limitada por software únicamente. Paralelamente, Zhipu anunció la expansión de inversiones en ventures externos más allá de su portafolio actual, apuntando explícitamente a la prosperidad del ecosistema en lugar de una extracción competitiva de suma cero.
Esta estructura institucional refleja la convicción filosófica de Tang Jie de que “no somos una empresa tradicional, ni aspiramos a serlo.” En cambio, Zhipu busca una emergencia operativa como una empresa nativa de IA donde la posibilidad revolucionaria desplaza la habituación incremental—utilizando la propia IA para optimización de gobernanza, eficiencia y equidad sistémica.
La Coda Filosófica: Endorfinas sobre Dopamina
Tang Jie concluye su carta estratégica diferenciando entre modalidades de recompensa en competencia. El logro en la IPO genera una satisfacción momentánea de dopamina—una emoción transitoria. La verdadera realización proviene en cambio de las endorfinas acumuladas en el camino hacia la AGI: enfoque sostenido, base operacional, avance persistente hacia la frontera última de la inteligencia. La expresión formal—alcanzar el “estado final de la inteligencia” donde Z representa la culminación del alfabeto—señala el compromiso de Zhipu con una posición en la frontera más que con la optimización del mercado.
Para los observadores de la industria, la importancia trasciende la estrategia corporativa individual. La cotización pública de Zhipu y el replanteamiento filosófico de Jie reflejan una madurez más amplia del sector: el reconocimiento de que la ventaja competitiva duradera surge no de la optimización en la capa de aplicación, sino de capacidades fundamentales—maestría en arquitectura de modelos, innovación en paradigmas de aprendizaje y avance teórico implacable. Si este compromiso se traducirá en una superioridad técnica sostenida sigue siendo una pregunta abierta, pero la determinación de Tang Jie parece categórica: lo que Zhipu logre en 2026 determinará si la convicción filosófica se alinea con la posibilidad tecnológica.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Tang Jie reposiciona Zhipu tras la OPI: El cambio estratégico hacia la maestría en modelos fundamentales
El 8 de enero de 2026, Zhipu alcanzó un hito histórico al convertirse en la primera empresa de modelos de lenguaje grande cotizada públicamente en el mundo—una hazaña notable que ni los analistas ni los competidores anticipaban posible. En el mismo día, Tang Jie, profesor de ciencias de la computación en la Universidad Tsinghua y visionario fundador de Zhipu, publicó una carta interna integral que señalaba un drástico reajuste estratégico. En lugar de celebrar victorias comerciales, el mensaje de Jie enfatizó un retorno filosófico: la búsqueda implacable de la excelencia en modelos fundamentales como el único camino hacia la inteligencia artificial general. La carta descarta narrativas de comercialización a corto plazo y en cambio articula una ambiciosa agenda para 2026 centrada en el inminente lanzamiento de GLM-5 junto con tres enfoques tecnológicos transformadores—nuevas arquitecturas de modelos, aprendizaje por refuerzo generalizado y capacidades de aprendizaje continuo.
La Conversación de Café que Redefinió la Misión de Zhipu
Durante una visita al café del laboratorio de la Universidad de Ciencia y Tecnología de Hong Kong, Tang Jie se encontró con el distinguido profesor Yang Qiang y compartió una observación casual: había estado consumiendo cantidades excesivas de café últimamente. La respuesta de Yang cambió completamente el tono de la conversación: “La adicción no es necesariamente negativa. Imagina si pudiéramos canalizar nuestra adicción al café hacia la investigación con igual intensidad—¿no lograríamos cosas extraordinarias?” Este diálogo simple encapsula la base filosófica de Zhipu y la visión del mundo de Jie.
Desde la creación oficial de Zhipu en 2019, la compañía ha operado bajo un principio unificador—“hacer que las máquinas piensen como humanos.” La inspiración se remonta a 2018, cuando Tang Jie y su colectivo de investigación diseñaron un sistema cognitivo de máquina que incorporaba la teoría de doble sistema de la psicología cognitiva humana, combinando paradigmas de pensamiento rápido y lento. Sin embargo, a pesar de más de tres años de desarrollo acelerado en la industria desde la aparición de ChatGPT, Tang Jie observó en discusiones internas recientes que “aún no existe un consenso genuino en la industria; todos avanzan mediante prueba y error.”
De GLM-130B a Reconocimiento SOTA: El Punto de Inflexión Técnico
El recorrido técnico de Zhipu revela un patrón de toma de riesgos calculados, a menudo desafiando la ortodoxia de la industria. En 2020, cuando los modelos a escala BERT dominaban el discurso, la compañía lanzó su arquitectura algorítmica propietaria GLM y entrenó un modelo base de 10 mil millones de parámetros—una movida audaz que atrajo a primeros adoptantes como Meituan. Lo crucial es que este éxito permanecía lejos de las aspiraciones de AGI debido a limitaciones arquitectónicas: bases de conocimiento insuficientes y ausencia de capacidades de razonamiento a nivel humano.
El período 2021-2022 resultó decisivo. Mientras la mayoría de los actores de la industria descartaban la visión de “máquinas pensando como humanos” como una fantasía utópica, Zhipu apostó por ella. La compañía entrenó un modelo de 130 mil millones de parámetros en conjuntos de datos exponencialmente ampliados, estableciendo dos divisiones de innovación paralelas con independencia operativa: el trío de investigación GLM enfocado en entrenamiento de modelos, y un equipo separado que construía la plataforma MaaS que eventualmente alimentaría bigmodel.cn. Para mediados de 2022, GLM-130B logró avances técnicos que captaron la atención global, mientras acumulaba los primeros usuarios de API en producción—un punto de validación crítico que distinguió a Zhipu de los centros de investigación puros.
El fenómeno DeepSeek, sin embargo, reconfiguró la dinámica competitiva. Su aparición en 2025 creó lo que los observadores llamaron una “onda de choque entre las empresas chinas de modelos grandes”, impactando particularmente a Zhipu debido a la herencia compartida en el equipo de investigación académica y contribuciones en ecosistemas de código abierto. En lugar de adoptar una postura defensiva, Tang Jie reformula la presión competitiva como un proceso de clarificación: “DeepSeek nos despertó,” catalizando una “reforzamiento” sistemático en ámbitos técnicos y comerciales.
La Convergencia GLM: Cómo Zhipu Alcanzó la Frontera Global
La ejecución de Zhipu en 2025 respecto a sus hitos estratégicos internos fue notablemente precisa. La compañía lanzó en abril un modelo “estabilizador” (GLM-4.1), alcanzó en mitad de año el estatus de “tener asiento en la mesa” con GLM-4.5, y cerró el año con GLM-4.7—posicionado como un contendiente de primer nivel entre los modelos fundamentales globales. Según los índices de evaluación de Artificial Analysis, GLM-4.7 ocupó el primer lugar a nivel nacional y logró paridad global con Claude 4.5 Sonnet.
El catalizador de este avance fue, inesperadamente, la codificación. Cuando el mercado en general se sumió en guerras de precios y narrativas de commoditización, Zhipu identificó la generación de código como el punto de entrada preciso que la diferenciaba de los competidores. El lanzamiento en julio de GLM-4.5 fue la participación decisiva—con equipos técnicos, de plataforma y comerciales operando en modo sprint de alto riesgo. Tras la victoria, las iteraciones GLM-4.6 y GLM-4.7 sistematizaron la ventaja: desarrolladores de 184 países (más de 150,000 personas) participaron en el Plan de Codificación GLM, generando entusiasmo profesional y una velocidad de adopción medible.
La Explosión de Ingresos: La Economía de MaaS Validada
La validación comercial fue contundente. En solo diez meses, la trayectoria de ingresos anuales de la plataforma MaaS de Zhipu creció de 20 millones a 500 millones—una multiplicación por veinticinco que redefine fundamentalmente los cálculos de ROI competitivo. Notablemente, los ingresos en el extranjero superaron los 200 millones, sugiriendo que los mercados fuera de China representan aproximadamente el 40% de la economía de la plataforma. Este rendimiento contrasta marcadamente con las narrativas públicas que indican que la economía de los modelos grandes chinos aún es inmadura.
La dimensión internacional merece especial énfasis. La iniciativa “IA Soberana” de Zhipu aprovechó la infraestructura nacional de MaaS de Malasia para establecer a GLM como el modelo grande oficial de ese país—el primer caso documentado de tecnología de modelos fundamentales chinos que logra integración gubernamental a nivel global. Tang Jie atribuyó este avance a la “audacia y determinación” del equipo internacional, posicionando la expansión internacional como una respuesta estratégica al llamado de Beijing para que la IA china alcance despliegue global.
El Manifiesto Técnico 2026 de Jie: Derribando Paradigmas Establecidos
En lugar de buscar optimizaciones incrementales, la agenda 2026 de Tang Jie apunta a una disrupción arquitectónica fundamental. La carta identifica cuatro vectores prioritarios:
Lanzamiento de GLM-5: A través de mejoras en escalado y avances técnicos multivectoriales, el próximo modelo de generación busca ofrecer capacidades sin precedentes en tareas del mundo real, estableciendo un nuevo estándar de rendimiento.
Exploración de Nuevas Arquitecturas de Modelos: El paradigma Transformer—dominante por casi diez años—muestra limitaciones crecientes en computación de contextos ultra largos, mecanismos de memoria y protocolos de actualización. Zhipu se compromete a descubrir nuevos paradigmas arquitectónicos mientras persigue la co-diseño de chips y algoritmos.
Aprendizaje por Refuerzo Generalizado: Los enfoques actuales de RLVR sobresalen en dominios acotados (matemáticas, código) pero revelan limitaciones estructurales en entornos sin restricciones. El objetivo 2026 apunta a paradigmas de RL que permitan a los sistemas de IA analizar y ejecutar tareas temporales extendidas—horas o días—yendo más allá de seguir instrucciones hacia una verdadera agencia.
Aprendizaje Continuo y Evolución Autónoma: Los modelos de IA en producción actualmente poseen una inteligencia fundamentalmente estática tras su despliegue. Acumulan conocimiento mediante ciclos de entrenamiento costosos y, con el tiempo, se deprecian a medida que cambian los contextos reales. Zhipu busca diseñar paradigmas de aprendizaje de próxima generación que reflejen la plasticidad neural humana—marcos de aprendizaje en línea y continuo que permitan interacción persistente con el mundo y acumulación de capacidades.
Innovación Institucional: La Apuesta del X-Lab por la Disrupción
Reconociendo que la inercia organizacional tiende a la optimización incremental, Zhipu creó una división de investigación experimental llamada X-Lab. Diseñada para reclutar talento mediante mecanismos abiertos, X-Lab persigue exploraciones de vanguardia en nuevas arquitecturas, paradigmas cognitivos emergentes y incubación de proyectos diversos—sin estar limitada por software únicamente. Paralelamente, Zhipu anunció la expansión de inversiones en ventures externos más allá de su portafolio actual, apuntando explícitamente a la prosperidad del ecosistema en lugar de una extracción competitiva de suma cero.
Esta estructura institucional refleja la convicción filosófica de Tang Jie de que “no somos una empresa tradicional, ni aspiramos a serlo.” En cambio, Zhipu busca una emergencia operativa como una empresa nativa de IA donde la posibilidad revolucionaria desplaza la habituación incremental—utilizando la propia IA para optimización de gobernanza, eficiencia y equidad sistémica.
La Coda Filosófica: Endorfinas sobre Dopamina
Tang Jie concluye su carta estratégica diferenciando entre modalidades de recompensa en competencia. El logro en la IPO genera una satisfacción momentánea de dopamina—una emoción transitoria. La verdadera realización proviene en cambio de las endorfinas acumuladas en el camino hacia la AGI: enfoque sostenido, base operacional, avance persistente hacia la frontera última de la inteligencia. La expresión formal—alcanzar el “estado final de la inteligencia” donde Z representa la culminación del alfabeto—señala el compromiso de Zhipu con una posición en la frontera más que con la optimización del mercado.
Para los observadores de la industria, la importancia trasciende la estrategia corporativa individual. La cotización pública de Zhipu y el replanteamiento filosófico de Jie reflejan una madurez más amplia del sector: el reconocimiento de que la ventaja competitiva duradera surge no de la optimización en la capa de aplicación, sino de capacidades fundamentales—maestría en arquitectura de modelos, innovación en paradigmas de aprendizaje y avance teórico implacable. Si este compromiso se traducirá en una superioridad técnica sostenida sigue siendo una pregunta abierta, pero la determinación de Tang Jie parece categórica: lo que Zhipu logre en 2026 determinará si la convicción filosófica se alinea con la posibilidad tecnológica.