Saltar al contenido
Tecnología

Anthropic creó el modelo de IA más potente de la historia y lo bloqueó de inmediato porque les dio miedo lo que vieron

Claude Mythos Preview supera en benchmarks a GPT-5.4, Gemini 3.1 Pro y al propio Claude Opus 4.6. Pero lo que alarmó a Anthropic no fue su inteligencia general, sino algo más específico: el modelo es capaz de encontrar y explotar vulnerabilidades zero-day en sistemas operativos y navegadores de forma completamente autónoma. Por eso solo tendrán acceso a él once grandes empresas tecnológicas, a través del Proyecto Glasswing
Por

Tiempo de lectura 3 minutos

Comentarios (0)

El 24 de febrero de 2026, los ingenieros de Anthropic probaron por primera vez su nuevo modelo de inteligencia artificial internamente. Lo que vieron los dejó con una conclusión incómoda: habían construido algo demasiado peligroso para ponerlo a disposición del público. El modelo se llama Claude Mythos Preview, y Anthropic acaba de presentarlo oficialmente con una restricción de acceso sin precedentes en la industria.

No es que el modelo falle o sea inestable. Es todo lo contrario: es el modelo de lenguaje más capaz que se ha presentado públicamente hasta la fecha, según los propios benchmarks de Anthropic. El problema es precisamente eso: lo que es capaz de hacer.

Qué encontró Anthropic que le generó tanto miedo

En cuanto los ingenieros comenzaron las pruebas internas, Mythos demostró algo que los modelos anteriores no habían logrado: la capacidad de descubrir y explotar vulnerabilidades zero-day en los principales sistemas operativos y navegadores web de forma completamente autónoma. Sin instrucciones específicas, sin guía humana paso a paso.

El ejemplo más llamativo que Anthropic documenta en su blog es el de OpenBSD, un sistema operativo precisamente reconocido por su nivel de seguridad extremo. Mythos identificó una vulnerabilidad que llevaba 27 años presente en ese sistema sin que nadie la hubiera detectado. La vulnerabilidad ya ha sido corregida, pero el hallazgo dejó claro el alcance real del modelo: si un ciberdelincuente tuviera acceso a Mythos, tendría en sus manos una herramienta de ataque sin precedentes.

El mejor modelo de la historia según los benchmarks, por mucho

Más allá de sus capacidades en ciberseguridad, los datos de rendimiento general de Mythos son igualmente contundentes. En el informe técnico publicado por Anthropic, el modelo supera a GPT-5.4, a Gemini 3.1 Pro y también a Claude Opus 4.6, que hasta ahora era el modelo de referencia en la mayoría de pruebas de rendimiento.

En algunos benchmarks el margen es ajustado, pero en otros el salto es considerable. El caso más extremo es USAMO, una prueba de resolución de problemas matemáticos de alta complejidad, donde Mythos alcanza una precisión cercana a la perfección. Además, el modelo presenta una tasa de alucinaciones drásticamente inferior a la de sus predecesores y tiene la capacidad de responder «no lo sé» cuando no tiene información suficiente, lo que reduce los errores por exceso de confianza.

Hay un matiz importante en ese último punto: cuando Mythos falla en tareas complejas, sus errores no son errores obvios. Son fallos técnicos extremadamente sutiles y bien argumentados, que pueden pasar desapercibidos incluso para expertos. Eso exige una verificación mucho más rigurosa que con modelos anteriores.

El Proyecto Glasswing: once empresas, acceso restringido y uso solo defensivo

La solución que Anthropic ha encontrado no es retrasar el lanzamiento ni guardar el modelo en un cajón. Es controlarlo de forma estricta a través de un programa llamado Proyecto Glasswing, orientado exclusivamente a usos defensivos de ciberseguridad.

Solo once organizaciones tendrán acceso a Claude Mythos Preview: AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Fundación Linux, Microsoft, NVIDIA y Palo Alto Networks. Todas ellas podrán usar el modelo para identificar vulnerabilidades y exploits en sus sistemas antes de que actores maliciosos puedan hacerlo. La idea es utilizar la misma capacidad que hace peligroso a Mythos para convertirla en una herramienta de defensa.

Anthropic advierte: esto es solo el principio

Quizás la parte más inquietante del anuncio no es Mythos en sí mismo, sino lo que Anthropic dice sobre lo que viene después. La empresa afirma explícitamente que no ve razones para pensar que Mythos Preview sea el punto en el que las capacidades de ciberseguridad de los modelos de lenguaje alcancen su techo. Esperan que los modelos sigan mejorando en los próximos meses y años.

Dicho de otro modo: si Mythos ya es demasiado peligroso para uso público, la pregunta que queda en el aire es qué harán con los modelos que vengan después. La decisión de restringir el acceso de forma tan drástica es, en sí misma, una señal de que la industria ha entrado en un territorio donde las capacidades de los modelos están empezando a superar la capacidad de gestionarlas con seguridad.

[Fuente: Xataka]

Compartir esta historia

Artículos relacionados