Autor original: K, investigador de Web3Caff Research
En la trayectoria del desarrollo de la inteligencia artificial, los últimos dos años han experimentado una profunda transformación estructural. La capacidad de los modelos continúa superándose, la eficiencia de razonamiento se optimiza constantemente, y el capital global junto con las máquinas estatales acuden en masa. Sin embargo, tras una ola de fervor y concentración de capital en la centralización, DeAI (arquitectura descentralizada de entrenamiento y razonamiento de IA) está emergiendo como una vía alternativa hacia el futuro, abordando dos grandes riesgos del desarrollo actual de la IA: la confianza ciega en los mecanismos y la vulnerabilidad a la expansión.
La prosperidad de la IA centralizada se basa en una infraestructura física de gran escala, desde clústeres de supercomputación hasta cajas negras de inferencia de modelos cerrados, pasando por productos SaaS empaquetados y llamadas API internas en empresas. Pero, al igual que Internet pasó de ser cerrado a abierto, y de plataformas Web2 a protocolos Web3, el desarrollo de la IA también enfrentará inevitablemente dos problemas fundamentales: primero, ¿cómo puede un usuario verificar que los resultados de la inferencia del modelo no han sido alterados y son auténticos? Segundo, cuando el entrenamiento y la inferencia cruzan fronteras geográficas, de dispositivos, culturales y legales, ¿la arquitectura centralizada podrá mantener sus ventajas en costo y rendimiento?
La red DeAI propone una solución radicalmente diferente a la paradigma centralizada. Basada en la idea de “Cálculo Verificable” (Verifiable Compute), utiliza criptografía y mecanismos de consenso para garantizar que cada ejecución del modelo tenga una trazabilidad y una prueba verificable. Esto no solo resuelve el problema de la “confianza ciega” en los modelos por parte de los usuarios, sino que también proporciona una base de confianza universal para la colaboración transfronteriza. Actualmente, pioneros como Prime Intellect e Inference Labs ya han implementado inferencias verificables en clústeres GPU remotos, abriendo nuevas posibilidades para el entrenamiento distribuido y los servicios de IA autónoma.[70]
Desde una perspectiva económica, el auge de DeAI también está estrechamente relacionado con la transformación del RoG (Return-on-GPU, es decir, los beneficios por hora de potencia GPU) en la industria de la IA. El diseño de GPT-4.1 ya no persigue simplemente modelos grandes y acumulación de potencia, sino que enfatiza la afinación precisa y la asignación de recursos de inferencia, por ejemplo, reutilizando al máximo el contexto existente durante la generación y reduciendo cálculos innecesarios, para disminuir salidas inútiles y consumo de tokens, y así dedicar más potencia a procesos de inferencia realmente valiosos.[68] Esto marca un cambio en el foco de la industria de “cuántas GPU se pueden quemar” a “cuánto valor se puede obtener por hora”. Este enfoque en eficiencia ofrece una oportunidad perfecta para que las redes de IA descentralizadas rompan con las limitaciones de los clústeres centralizados.
Los altos costos fijos y los cuellos de botella en eficiencia de los clústeres centralizados de GPU a gran escala serán difíciles de superar frente a una red permissionless y heterogénea de GPU contribuidas por usuarios globales. Y si esta red cuenta con “verificabilidad”, no solo podrá competir en costos con infraestructuras centralizadas como AWS o Azure, sino que también tendrá ventajas naturales en transparencia y confianza.
Además, el impacto de DeAI va mucho más allá del nivel técnico; transformará la propiedad y la participación en el desarrollo de IA. En el ecosistema cerrado actual dominado por gigantes como OpenAI y Anthropic, la mayoría de los desarrolladores solo actúan como “usuarios de modelos” y no participan en los beneficios del entrenamiento ni en las decisiones de inferencia. En la red DeAI, cada contribuyente, ya sea un nodo que aporta potencia de cálculo, un usuario que proporciona datos o un ingeniero que desarrolla aplicaciones de agentes, puede participar en la gobernanza y compartir beneficios mediante protocolos. Esto no solo es una innovación en mecanismos económicos, sino también un avance en la ética del desarrollo de IA.
Por supuesto, DeAI todavía está en una fase exploratoria temprana. Aún no ha alcanzado un nivel de rendimiento capaz de reemplazar a los modelos centralizados, ni ha superado los desafíos de estabilidad de red y eficiencia en la verificación. Pero el futuro de la IA no será un camino único, sino que coexistirán múltiples vías. Las plataformas centralizadas seguirán dominando el mercado empresarial, persiguiendo la optimización extrema del RoG y la comercialización; mientras que las redes DeAI crecerán en escenarios periféricos y mercados emergentes, evolucionando gradualmente hacia un ecosistema abierto de modelos con su propia vitalidad. Como Internet en la libertad de la información, DeAI en la autonomía inteligente. Su importancia no solo radica en sus ventajas tecnológicas, sino en que ofrece la posibilidad de otro mundo, un futuro en el que no se necesita confiar en intermediarios específicos, sino en la propia inteligencia.
Este contenido es un extracto del informe publicado por Web3Caff Research: 《Informe anual Web3 2025 (parte inferior): Encuentro de la historia de las finanzas, la computación y el orden de Internet, ¿se abrirá una gran transformación en la industria? Análisis panorámico de sus cambios estructurales, potencial de valor, límites de riesgo y perspectivas futuras》
Este informe (que ya está disponible para lectura gratuita) fue escrito por el investigador de Web3Caff Research, K, y realiza un análisis sistemático de los cambios en la etapa de desarrollo de Web3 en 2025, centrado en por qué, en un contexto de evolución continua de las capacidades regulatorias y de infraestructura, la exploración de aplicaciones y la colaboración sistémica se están convirtiendo en nuevas áreas de interés. Los puntos clave incluyen:
Contexto de la evolución por fases: las razones internas por las que, tras completar la construcción de infraestructura, cambian los enfoques del sector;
Cambios en los mecanismos clave: cómo la clarificación progresiva de los marcos regulatorios y mecanismos en cadena afecta la operación del sistema;
Principales direcciones de aplicación: exploración en pagos y liquidaciones, mapeo de escenarios reales y colaboración programable;
Direcciones futuras: análisis de la evolución de Web3 en 2026 y más allá.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
DeAI: La era del crecimiento "salvaje" de la IA, por qué necesitamos Web3 para gobernarla
null
Autor original: K, investigador de Web3Caff Research
En la trayectoria del desarrollo de la inteligencia artificial, los últimos dos años han experimentado una profunda transformación estructural. La capacidad de los modelos continúa superándose, la eficiencia de razonamiento se optimiza constantemente, y el capital global junto con las máquinas estatales acuden en masa. Sin embargo, tras una ola de fervor y concentración de capital en la centralización, DeAI (arquitectura descentralizada de entrenamiento y razonamiento de IA) está emergiendo como una vía alternativa hacia el futuro, abordando dos grandes riesgos del desarrollo actual de la IA: la confianza ciega en los mecanismos y la vulnerabilidad a la expansión.
La prosperidad de la IA centralizada se basa en una infraestructura física de gran escala, desde clústeres de supercomputación hasta cajas negras de inferencia de modelos cerrados, pasando por productos SaaS empaquetados y llamadas API internas en empresas. Pero, al igual que Internet pasó de ser cerrado a abierto, y de plataformas Web2 a protocolos Web3, el desarrollo de la IA también enfrentará inevitablemente dos problemas fundamentales: primero, ¿cómo puede un usuario verificar que los resultados de la inferencia del modelo no han sido alterados y son auténticos? Segundo, cuando el entrenamiento y la inferencia cruzan fronteras geográficas, de dispositivos, culturales y legales, ¿la arquitectura centralizada podrá mantener sus ventajas en costo y rendimiento?
La red DeAI propone una solución radicalmente diferente a la paradigma centralizada. Basada en la idea de “Cálculo Verificable” (Verifiable Compute), utiliza criptografía y mecanismos de consenso para garantizar que cada ejecución del modelo tenga una trazabilidad y una prueba verificable. Esto no solo resuelve el problema de la “confianza ciega” en los modelos por parte de los usuarios, sino que también proporciona una base de confianza universal para la colaboración transfronteriza. Actualmente, pioneros como Prime Intellect e Inference Labs ya han implementado inferencias verificables en clústeres GPU remotos, abriendo nuevas posibilidades para el entrenamiento distribuido y los servicios de IA autónoma.[70]
Desde una perspectiva económica, el auge de DeAI también está estrechamente relacionado con la transformación del RoG (Return-on-GPU, es decir, los beneficios por hora de potencia GPU) en la industria de la IA. El diseño de GPT-4.1 ya no persigue simplemente modelos grandes y acumulación de potencia, sino que enfatiza la afinación precisa y la asignación de recursos de inferencia, por ejemplo, reutilizando al máximo el contexto existente durante la generación y reduciendo cálculos innecesarios, para disminuir salidas inútiles y consumo de tokens, y así dedicar más potencia a procesos de inferencia realmente valiosos.[68] Esto marca un cambio en el foco de la industria de “cuántas GPU se pueden quemar” a “cuánto valor se puede obtener por hora”. Este enfoque en eficiencia ofrece una oportunidad perfecta para que las redes de IA descentralizadas rompan con las limitaciones de los clústeres centralizados.
Los altos costos fijos y los cuellos de botella en eficiencia de los clústeres centralizados de GPU a gran escala serán difíciles de superar frente a una red permissionless y heterogénea de GPU contribuidas por usuarios globales. Y si esta red cuenta con “verificabilidad”, no solo podrá competir en costos con infraestructuras centralizadas como AWS o Azure, sino que también tendrá ventajas naturales en transparencia y confianza.
Además, el impacto de DeAI va mucho más allá del nivel técnico; transformará la propiedad y la participación en el desarrollo de IA. En el ecosistema cerrado actual dominado por gigantes como OpenAI y Anthropic, la mayoría de los desarrolladores solo actúan como “usuarios de modelos” y no participan en los beneficios del entrenamiento ni en las decisiones de inferencia. En la red DeAI, cada contribuyente, ya sea un nodo que aporta potencia de cálculo, un usuario que proporciona datos o un ingeniero que desarrolla aplicaciones de agentes, puede participar en la gobernanza y compartir beneficios mediante protocolos. Esto no solo es una innovación en mecanismos económicos, sino también un avance en la ética del desarrollo de IA.
Por supuesto, DeAI todavía está en una fase exploratoria temprana. Aún no ha alcanzado un nivel de rendimiento capaz de reemplazar a los modelos centralizados, ni ha superado los desafíos de estabilidad de red y eficiencia en la verificación. Pero el futuro de la IA no será un camino único, sino que coexistirán múltiples vías. Las plataformas centralizadas seguirán dominando el mercado empresarial, persiguiendo la optimización extrema del RoG y la comercialización; mientras que las redes DeAI crecerán en escenarios periféricos y mercados emergentes, evolucionando gradualmente hacia un ecosistema abierto de modelos con su propia vitalidad. Como Internet en la libertad de la información, DeAI en la autonomía inteligente. Su importancia no solo radica en sus ventajas tecnológicas, sino en que ofrece la posibilidad de otro mundo, un futuro en el que no se necesita confiar en intermediarios específicos, sino en la propia inteligencia.
Este contenido es un extracto del informe publicado por Web3Caff Research: 《Informe anual Web3 2025 (parte inferior): Encuentro de la historia de las finanzas, la computación y el orden de Internet, ¿se abrirá una gran transformación en la industria? Análisis panorámico de sus cambios estructurales, potencial de valor, límites de riesgo y perspectivas futuras》
Este informe (que ya está disponible para lectura gratuita) fue escrito por el investigador de Web3Caff Research, K, y realiza un análisis sistemático de los cambios en la etapa de desarrollo de Web3 en 2025, centrado en por qué, en un contexto de evolución continua de las capacidades regulatorias y de infraestructura, la exploración de aplicaciones y la colaboración sistémica se están convirtiendo en nuevas áreas de interés. Los puntos clave incluyen: