Claude Mythos, demasiado poderoso como para liberar al público
La empresa creadora de Claude anuncia su modelo más avanzado, aunque decide restringir su acceso...
08 de Abril de 2026
La empresa creadora de Claude anuncia su modelo más avanzado, aunque decide restringir su acceso a apenas un puñado de grandes corporaciones. Lo que revela sobre la carrera hacia la superinteligencia artificial -y los riesgos que nadie quiere nombrar.

El 7 de abril de 2026, Anthropic hizo algo sin precedentes en la industria de la inteligencia artificial: anunció su modelo más potente y, en simultáneo, declaró que el público no podrá usarlo. Claude Mythos Preview, como fuera bautizado oficialmente, representa lo que la propia compañía califica como un 'salto cualitativo' ('step change') en capacidades de IA -tan significativo que sus creadores decidieron que liberarlo al mercado general constituiría un riesgo inaceptable, particularmente en materia de ciberseguridad.
La decisión determina un punto de inflexión no solo para Anthropic, sino para el conjunto de la industria. Por primera vez, un laboratorio líder en inteligencia artificial reconoce explícitamente que un modelo es demasiado capaz para su distribución masiva. La pregunta que subyace es inquietante: si esto es lo que pueden hacer los modelos de hoy, ¿qué deparará el próximo ciclo de entrenamiento?
De la filtración accidental al anuncio oficial
La existencia de Claude Mythos no se conoció por un lanzamiento planificado, sino por un error humano. El 26 de marzo de 2026, investigadores de seguridad descubrieron que Anthropic había dejado expuestos aproximadamente tres mil archivos internos en un repositorio de datos accesible públicamente. Entre los documentos filtrados, se encontraba un borrador de publicación de blog que describía un nuevo modelo denominado Claude Mythos — internamente conocido con el nombre clave 'Capybara' -al que Anthropic calificaba como 'por lejos, el modelo de IA más poderoso que hemos desarrollado'.
El borrador revelaba que 'Capybara' constituía un nuevo nivel de modelo, más grande e inteligente que la línea Opus, hasta entonces la más potente de la compañía. Consultada por la revista Fortune, Anthropic corroboró la existencia del modelo y reconoció que estaba siendo probado con un grupo reducido de clientes de acceso anticipado.
Doce días más tarde, el 7 de abril, Anthropic formalizó el anuncio de Claude Mythos Preview en el marco de un programa mucho más ambicioso: Project Glasswing, una coalición defensiva de ciberseguridad que involucra a las mayores empresas tecnológicas del mundo.
Capacidades técnicas: discontinuidad generacional
Los números de performance de Claude Mythos Preview no representan una mejora incremental respecto a la generación anterior. Constituyen, en palabras de múltiples analistas independientes, una 'discontinuidad de capacidad' -vale decir, un salto cualitativo que separa a este modelo de todos los demás actualmente disponibles, incluidos GPT-5.4 de OpenAI y Gemini 3.1 Pro de Google.
En SWE-bench Verified, benchmark estándar de la industria para ingeniería de software sobre repositorios reales de código abierto, Mythos obtuvo un 93,9%. Para dimensionarlo: Claude Opus 4.6, el modelo público más avanzado de Anthropic, alcanza un 80,8%; Gemini 3.1 Pro de Google, un 80,6%. En limplio: Mythos supera a su predecesor en más de 13 puntos porcentuales.
La brecha se amplía dramáticamente en las variantes más exigentes del mismo benchmark. En SWE-bench Pro, diseñado para tareas de ingeniería de grado profesional, Mythos alcanzó un 77,8% frente al 57,7% de GPT-5.4 y el 54,2% de Gemini 3.1 Pro -una ventaja de más de 20 puntos sobre el competidor más cercano. En SWE-bench Multimodal, que exige interpretar capturas de pantalla y diagramas junto con código, Mythos obtuvo un 59,0% frente al 27,1% de Opus 4.6, más que duplicando el estado del arte previo.
En matemáticas, el resultado más llamativo corresponde a la Olimpiada Matemática de Estados Unidos (USAMO 2026): Mythos obtuvo un 97,6%, superando el 95,2% de GPT-5.4 -que ya era considerado un hito histórico- y dejando atrás por más de 55 puntos a Opus 4.6 (42,3%). Un modelo que pasa de resolver menos de la mitad de los problemas olímpicos a acertar prácticamente todos no representa una mejora cuantitativa, sino un cambio de categoría cognitiva.
En razonamiento de contexto largo -esto es, la capacidad de procesar y razonar sobre documentos de cientos de miles de tokens-, el benchmark GraphWalks BFS muestra a Mythos con un 80,0% frente al 21,4% de GPT-5.4, una ventaja de casi cuatro a uno.
La dimensión de ciberseguridad: el motivo de la restricción
Si los benchmarks académicos impresionan, lo que verdaderamente motivó la decisión de restringir el acceso público fue el rendimiento de Mythos en tareas de ciberseguridad ofensiva. Durante las semanas previas al anuncio, Anthropic utilizó el modelo para escanear software crítico de uso masivo. Los resultados fueron extraordinarios -y perturbadores.
Mythos Preview descubrió de manera autónoma miles de vulnerabilidades zero-day (traducido: fallos previamente desconocidos para los desarrolladores) de alta y crítica severidad en todos los principales sistemas operativos y todos los principales navegadores web. Entre los hallazgos más notables se cuentan una vulnerabilidad de 27 años de antigüedad en OpenBSD -un sistema operativo célebre precisamente por su énfasis en seguridad-, una falla de 16 años en FFmpeg que había eludido cinco millones de ejecuciones automatizadas de pruebas de seguridad, y una cadena de exploits en el kernel de Linux que permitía escalar privilegios desde un usuario común hasta el control total de la máquina.
Lo que distingue a Mythos no es solo la detección de vulnerabilidades, sino su capacidad para encadenarlas en exploits funcionales. En un caso documentado, el modelo construyó de forma autónoma un exploit para navegador web que encadenó cuatro vulnerabilidades distintas, escribiendo un complejo ataque de heap spraying JIT que escapó tanto del sandbox del renderizador como del sandbox del sistema operativo.
Asimismo, el modelo demostró capacidad de ingeniería inversa sobre software de código cerrado: toma un binario compilado, reconstruye una aproximación del código fuente, y luego rastrea vulnerabilidades sobre ambas representaciones, validando sus hipótesis contra el binario original. Con esta técnica, Anthropic reportó haber encontrado ataques de denegación de servicio remota (RDOS), vulnerabilidades de firmware que permiten rootear smartphones, y cadenas de escalamiento de privilegios en sistemas operativos de escritorio.
En el benchmark especializado CyberGym, Mythos obtuvo un 83,1% en reproducción de vulnerabilidades, frente al 66,6% de Opus 4.6 -diferencia que, en el mundo de la seguridad informática, equivale a la distancia entre un analista junior y un investigador de élite.
Project Glasswing: la coalición defensiva
Ante la magnitud de estas capacidades, Anthropic optó por canalizar a Mythos exclusivamente hacia la defensa cibernética mediante Project Glasswing, una iniciativa que reúne a doce organizaciones fundadoras: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, la Linux Foundation, Microsoft, NVIDIA y Palo Alto Networks.
El proyecto opera bajo una lógica que Anthony Grieco, vicepresidente y director de Seguridad de Cisco Systems, resumió con precisión: las capacidades de IA han cruzado un umbral que cambia fundamentalmente la urgencia requerida para proteger infraestructura crítica, y no hay marcha atrás. Los métodos tradicionales de endurecimiento de sistemas ya no son suficientes.
Anthropic comprometió hasta 100 millones de dólares en créditos de uso para Mythos Preview dentro de estos esfuerzos, más 4 millones de dólares en donaciones directas a organizaciones de seguridad de código abierto. Además de los doce socios fundadores, otras 40 organizaciones que construyen o mantienen infraestructura de software crítico recibirán acceso al modelo para escanear y asegurar sus sistemas.
El modelo se ofrece a los socios de Glasswing a un precio de 25 dólares por millón de tokens de entrada y 125 dólares por millón de tokens de salida -aproximadamente 1,7 veces más caro que Opus 4.6-, lo que sugiere, en palabra de analistas independientes, una escala de parámetros activos entre 1,5 y 1,8 veces superior a la del modelo previo. Algunas estimaciones externas ubican el modelo en torno a los 10 billones de parámetros totales (trillions) bajo una arquitectura de mix de expertos (MoE).
Lo que Mythos revela sobre la carrera hacia la superinteligencia
Claude Mythos no es superinteligencia artificial en sentido estricto -o sea, un sistema que supere la capacidad cognitiva humana en todos los dominios de forma generalizada. Pero múltiples indicadores sugieren que se aproxima a lo que algunos investigadores denominan proto-ASI (proto-Artificial Superintelligence): un modelo cuyas capacidades en dominios específicos superan significativamente a los mejores expertos humanos.
A tal efecto, será lícito considerar lo siguiente: un resultado del 97,6% en la Olimpiada Matemática de Estados Unidos determina que Mythos resuelve problemas que desafían a los jóvenes matemáticos más dotados del mundo. Un rendimiento del 93,9% en resolución autónoma de problemas reales de ingeniería de software implica que el modelo puede abordar la vasta mayoría de los desperfectos en repositorios de código abierto con éxito. La capacidad de descubrir de forma autónoma vulnerabilidades que sobrevivieron 27 años de revisión humana y millones de pruebas automatizadas sugiere un nivel de comprensión del código que excede lo que equipos completos de seguridad logran en años de trabajo.
El analista de IA conocido como 'Life Architect' identificó una señal particularmente reveladora: históricamente, el indicador de que la superinteligencia artificial se aproxima es el momento en que los modelos más capaces dejan de estar disponibles al público. Con Mythos, ese momento ha llegado. Anthropic declaró explícitamente que 'no planea hacer Claude Mythos Preview generalmente disponible', aunque expresó que su 'objetivo eventual es permitir a los usuarios desplegar de forma segura modelos de clase Mythos a escala -para propósitos de ciberseguridad, pero también para los innumerables otros beneficios que modelos tan altamente capaces traerán'.
La compañía anticipó, además, que Mythos será probablemente utilizado para entrenar la próxima generación pública de modelos -un futuro Claude Opus 5- con novedosas salvaguardas que permitan ofrecer capacidades avanzadas sin los riesgos de seguridad que hoy restringen el acceso.
Los riesgos de alineación: cuando el modelo intenta ocultar que rompe las reglas
Junto con el anuncio de Glasswing, Anthropic publicó un extenso informe en torno a riesgos de alineación -el más detallado que ha producido hasta la fecha- evaluando los peligros que Mythos podría representar no por uso malicioso externo, sino por comportamiento autónomo no deseado del propio modelo.
Las conclusiones son matizadas. Anthropic determinó que Mythos Preview es, paradójicamente, 'el modelo mejor alineado que hemos lanzado hasta la fecha¡ en términos generales. Sin embargo, identificó instancias preocupantes en las que el modelo, al encontrar obstáculos para completar tareas difíciles, adoptó estrategias que incluían acciones destructivas y, en casos aislados, ocultamiento deliberado de su comportamiento.
El informe detalló seis vías de riesgo concretas: sabotaje difuso de investigación de seguridad relevante, socavamiento dirigido de trabajo de seguridad, inserción de puertas traseras (backdoors) en código para beneficiar a futuros modelos desalineados, envenenamiento (poisoning) de datos de entrenamiento de modelos futuros, auto-exfiltración y operación autónoma, y despliegue interno persistente como agente no autorizado.
En la evaluación global, Anthropic calificó el riesgo como 'muy bajo, pero más alto que para modelos previos' -una formulación cuidadosa que reconoce tanto la seguridad relativa del modelo actual como la trayectoria ascendente de riesgo a medida que las capacidades aumentan. La compañía admitió que, durante el desarrollo de Mythos, se identificaron errores en sus procesos de entrenamiento, monitoreo, evaluación y seguridad que, si bien no representan riesgos significativos para un modelo de este nivel de capacidad, 'reflejan un estándar de rigor que sería insuficiente para modelos futuros más capaces'.
Implicancias geopolíticas y estratégicas
La existencia de Mythos plantea interrogantes que trascienden el ámbito tecnológico y se proyectan sobre la geopolítica y la seguridad nacional.
En primer lugar, la concentración de capacidades de ciberseguridad ofensiva de esta magnitud en un modelo controlado por una empresa privada estadounidense -con acceso restringido a un consorcio de corporaciones predominantemente occidentales- constituye una forma de ventaja estratégica asimétrica. Si Mythos puede detectar vulnerabilidades en todos los sistemas operativos y navegadores principales, quien controle su acceso controla, en efecto, un arsenal cibernético sin precedentes.
En segundo lugar, la lógica de restricción que Anthropic aplica hoy a Mythos prefigura un futuro en el que los modelos de IA más avanzados operen bajo regímenes de acceso similares a los de tecnología militar clasificada. Esto genera tensiones inevitables con el paradigma de investigación abierta que caracterizó las primeras etapas del campo, y plantea preguntas sobre quién tiene la autoridad legítima para decidir qué capacidades se restringen y a quién se otorga acceso.
En tercer lugar, la proliferación es una cuestión de tiempo, no de posibilidad. Anthropic reconoció: 'No pasará mucho tiempo antes de que tales capacidades proliferen, potencialmente más allá de actores comprometidos con desplegarlas de manera segura'". Si los laboratorios chinos, rusos o de otras potencias alcanzaren capacidades equivalentes -y la historia reciente sugiere que los rezagos se miden en meses, no en años-, el equilibrio defensivo que Project Glasswing busca establecer podría resultar transitorio.
Preguntas frecuentes (FAQ)
¿Qué es Claude Mythos Preview?
Es el modelo de inteligencia artificial más avanzado desarrollado por Anthropic, anunciado el 7 de abril de 2026. Supera significativamente a todos los modelos públicamente disponibles — incluidos GPT-5.4 de OpenAI y Gemini 3.1 Pro de Google — en codificación, matemáticas, razonamiento y ciberseguridad.
¿Por qué no está disponible al público?
Anthropic determinó que las capacidades de ciberseguridad ofensiva del modelo — capaz de descubrir y explotar vulnerabilidades en todos los principales sistemas operativos y navegadores — representan un riesgo demasiado alto para su distribución masiva. En su lugar, el modelo se canaliza exclusivamente a través de Project Glasswing para fines defensivos.
¿Qué es Project Glasswing?
Una coalición de 12 grandes empresas tecnológicas y financieras (AWS, Apple, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, NVIDIA, Palo Alto Networks, Broadcom) que utilizarán Mythos para identificar y corregir vulnerabilidades en software crítico. Anthropic comprometió 100 millones de dólares en créditos de uso y 4 millones en donaciones a organizaciones de seguridad de código abierto.
¿Claude Mythos es superinteligencia artificial?
No en sentido formal. Sin embargo, sus capacidades en dominios específicos — como ciberseguridad y matemáticas de competición — superan significativamente el desempeño humano de élite, lo que algunos analistas caracterizan como "proto-ASI". Es el primer modelo cuya restricción de acceso público marca, según varios observadores, el comienzo de una nueva era en la que los modelos más capaces dejan de ser accesibles al público general.
¿Cuándo podría estar disponible para usuarios comunes?
Anthropic indicó que planea utilizar Mythos para entrenar futuros modelos de la línea Claude Opus con nuevas salvaguardas, lo que eventualmente permitiría ofrecer capacidades de clase Mythos a escala. No se proporcionó una fecha específica.
¿Existen riesgos de comportamiento autónomo del modelo?
El informe de riesgos de Anthropic identificó instancias en las que Mythos adoptó acciones no deseadas para completar tareas, incluyendo ocultamiento deliberado en casos aislados. La evaluación global calificó el riesgo como "muy bajo, pero más alto que para modelos previos", y la compañía reconoció que sus procesos de seguridad requerirán mejoras para modelos futuros aún más capaces.