El modelo más potente de Anthropic revela su rendimiento, logrando una "salto generacional" y superando ampliamente a Opus!

robot
Generación de resúmenes en curso

Anthropic sufrió un error de configuración interno, lo que llevó a la divulgación accidental de su tecnología más confidencial.

Según un informe exclusivo de la revista Fortune del 26, un nuevo modelo insignia llamado “Claude Mythos”, con el nombre en clave “Capybara”, ha completado su entrenamiento y ha entrado en la fase de pruebas iniciales. Anthropic describe la mejora en su rendimiento como un “salto generacional”, superando ampliamente la versión más potente existente, Claude Opus 4.6, en pruebas clave de programación, razonamiento académico y ciberseguridad.

Se informa que, debido a un error humano en el sistema de gestión de contenido (CMS) de Anthropic, cerca de 3000 documentos internos no publicados quedaron expuestos en una caché de datos accesible públicamente. Los archivos filtrados revelan que la empresa planea introducir un nuevo nivel de modelo llamado “Capybara”, que se posicionará por encima de la serie insignia existente Opus, con costos operativos aún más altos.

Sin embargo, el rendimiento sobresaliente viene acompañado de preocupaciones de seguridad sin precedentes. Los borradores internos filtrados muestran que Anthropic clasifica al nuevo modelo como una fuente de riesgo significativo en el campo de la ciberseguridad, considerando que su capacidad de ataque cibernético “supera con creces cualquier otro modelo de IA actual”. Si fuera aprovechado por hackers, podría dar lugar a ataques cibernéticos masivos con un potencial destructivo que superaría la capacidad de respuesta de los defensores, lo que también constituye la razón principal por la que la empresa ha dudado en hacer un lanzamiento público.

Superando a Opus: el nuevo nivel “Capybara” rompe con el paradigma existente

Los borradores de blog filtrados muestran que Claude Mythos representa una reestructuración significativa en la línea de productos de Anthropic.

Actualmente, la matriz de modelos de Anthropic se divide en tres niveles: el más potente, Opus; el equilibrado en velocidad y costo, Sonnet; y el más pequeño y rápido, Haiku. Los documentos filtrados indican que Anthropic está introduciendo un nuevo nivel “Capybara”, que se posicionará por encima de Opus: con un mayor tamaño e inteligencia, pero también con costos operativos más altos.

En términos de rendimiento específico, el borrador del blog afirma que “en comparación con la versión más potente anterior, Claude Opus 4.6, Capybara ha mejorado significativamente en puntuaciones en pruebas de programación de software, razonamiento académico y ciberseguridad.” El documento describe a Claude Mythos como “el modelo de IA más potente que hemos desarrollado hasta la fecha, superando con creces cualquier versión anterior”.

Un portavoz de Anthropic confirmó la dirección mencionada en respuesta a una consulta de Fortune, afirmando que la empresa “está desarrollando un modelo general que logra avances significativos en razonamiento, programación y ciberseguridad”, y subrayó que “dada su poderosa capacidad, estamos avanzando de forma prudente en la manera de publicarlo”.

Riesgos de ciberseguridad sin precedentes: Anthropic también se siente alerta

Junto con su gran capacidad, hay advertencias de seguridad con un lenguaje inusualmente fuerte en los documentos filtrados.

El borrador del blog filtrado declara que el nuevo modelo “actualmente supera en capacidad de ataque cibernético a cualquier otro modelo de IA”, y presagia “una inminente ola de modelos, cuya velocidad de explotación de vulnerabilidades superará con creces la capacidad de respuesta de los defensores”.

Debido a esta preocupación, Anthropic ha priorizado a las agencias de defensa cibernética como beneficiarias en su estrategia de lanzamiento. El borrador menciona: “Ofreceremos acceso anticipado a las agencias relevantes, permitiéndoles adelantarse a la inminente ola de explotación de vulnerabilidades impulsadas por IA y fortalecer la robustez de sus bibliotecas de código”.

Esta preocupación no es un caso aislado. En febrero de este año, OpenAI lanzó GPT-5.3-Codex, catalogándolo como el primer modelo en alcanzar una calificación de “alta capacidad” en tareas de ciberseguridad, además de ser el primero entrenado directamente para identificar vulnerabilidades de software. En ese mismo período, Claude Opus 4.6, lanzado por Anthropic, también demostró la capacidad de identificar vulnerabilidades desconocidas en bibliotecas de código de producción. La empresa reconoció que esto pertenece a la característica de “espada de doble filo”.

Error de configuración: 3000 documentos internos expuestos accidentalmente

La raíz técnica de este incidente de filtración se debe a un error de operación aparentemente trivial.

Roy Paz, investigador senior de seguridad de IA en LayerX Security, y Alexandre Pauwels, investigador de ciberseguridad de la Universidad de Cambridge, descubrieron que la herramienta CMS externa que Anthropic utiliza para publicar su blog oficial tenía un defecto de configuración: el sistema establece de forma predeterminada que los activos digitales subidos estén en estado público y les asigna una URL accesible, a menos que el usuario lo cambie manualmente a privado. Esta configuración predeterminada llevó a que cerca de 3000 activos no publicados, incluidos imágenes, archivos PDF y archivos de audio, quedaran expuestos en una caché de datos accesible públicamente.

Anthropic atribuyó el incidente a un “error humano” en su declaración, afirmando que “un problema con la herramienta CMS externa llevó a que el contenido del borrador fuera de acceso público”, y calificó el material filtrado como “borradores de contenido en consideración para publicación”.

La plataforma X estalla: asombro y cuestionamientos coexistentes

Una vez que la noticia se hizo pública, la plataforma X rápidamente desató una ola de discusiones, centrando la atención del público en las dimensiones de asombro técnico y confianza en la seguridad.

La cuenta TFTC expresó directamente la ironía del incidente: “Anthropic ha demostrado inadvertidamente la teoría de la seguridad de la IA. Un error de configuración del CMS llevó a que 3000 archivos no publicados quedaran expuestos en una caché de búsqueda pública, incluidos detalles sobre ‘Claude Mythos’ (código Capybara), que los documentos internos de Anthropic describen como ‘la IA más poderosa hasta la fecha’.” Este comentario se difundió ampliamente en el ámbito tecnológico, y muchos usuarios se mostraron sorprendidos de que una empresa cuya filosofía central es la seguridad de la IA, revelara sus secretos debido a un error de configuración básico.

Otro usuario, fardeen, centró su atención en las nuevas capacidades de Claude, comentando: “Claude ahora realmente puede usar la computadora como tú: abrir aplicaciones, hacer clic en botones, llenar formularios. Anthropic está eliminando gradualmente a los humanos del proceso operativo.

El usuario Oliwier Makowski Trusz consideró que el lanzamiento de Capybara cambia el panorama. Según la información filtrada, el número de parámetros alcanza los 10 billones. La brecha entre Claude y todos los demás modelos se ha ampliado considerablemente.

Advertencia de riesgo y cláusula de exención de responsabilidad

        El mercado conlleva riesgos, y la inversión debe hacerse con precaución. Este artículo no constituye un consejo de inversión personal y no ha tenido en cuenta los objetivos de inversión, la situación financiera o las necesidades específicas de los usuarios. Los usuarios deben considerar si cualquier opinión, perspectiva o conclusión contenida en este artículo es adecuada para su situación particular. Invertir en base a esto es bajo su propia responsabilidad.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado