Última actualización: 22/04/2026

Anthropic presentó el 7 de abril de 2026 su modelo de inteligencia artificial más avanzado hasta la fecha: Claude Mythos Preview. A diferencia de cualquier lanzamiento anterior de la compañía, este sistema no está disponible para el público general. La razón, según la propia empresa, es que sus capacidades en ciberseguridad han superado un umbral crítico que lo convierte en una herramienta potencialmente devastadora en manos equivocadas. La decisión ha desatado un debate de alcance global entre expertos en seguridad, reguladores financieros y gobiernos.
Qué es Claude Mythos Preview y por qué Anthropic no lo lanza al público
Claude Mythos Preview es el modelo de propósito general más reciente de Anthropic, cuyas mejoras más significativas respecto a su predecesor, Claude Opus 4.6, se concentran en matemáticas, razonamiento en contextos largos, ingeniería de software y ciberseguridad.
El modelo está disponible únicamente como vista previa de investigación con acceso restringido, con prioridad para casos de uso en ciberseguridad defensiva. Cuenta con una ventana de contexto de un millón de tokens y una salida máxima de 128.000 tokens.
La decisión de no publicarlo abiertamente tiene un precedente escaso en la historia reciente de la industria. No desde que OpenAI retuvo temporalmente su modelo GPT-2 en 2019 una empresa de primer nivel había considerado un sistema demasiado peligroso para el público.
Capacidades sin precedente en detección de vulnerabilidades zero-day
El argumento central de Anthropic para justificar el acceso restringido reside en los resultados de sus propias pruebas internas. En las semanas previas al lanzamiento, el equipo de la compañía utilizó Claude Mythos Preview para identificar miles de vulnerabilidades zero-day, es decir, fallos previamente desconocidos por los desarrolladores del software afectado, en todos los principales sistemas operativos y navegadores web.
El modelo fue capaz de desarrollar exploits de manera completamente autónoma, sin intervención humana tras el prompt inicial. Ingenieros de Anthropic sin formación formal en seguridad solicitaron al modelo que buscara vulnerabilidades de ejecución remota de código durante la noche y encontraron, al día siguiente, un exploit completo y funcional.
La evaluación independiente del AI Security Institute (AISI) del Reino Unido, que obtuvo acceso anticipado al modelo, confirmó que Mythos Preview logra completar tareas de hacking de nivel experto en el 73% de los casos. Antes de abril de 2025, ningún modelo de IA era capaz de completar esas tareas.
El acceso no autorizado que agrava la crisis
La controversia escaló el 22 de abril de 2026, cuando se conoció que un grupo no autorizado había accedido al modelo. Según Bloomberg, un foro privado en línea logró acceder a Mythos a través de un proveedor externo. Anthropic confirmó estar investigando el reporte de acceso no autorizado a Claude Mythos Preview a través de uno de sus entornos de proveedores terceros, aunque señaló que no existe evidencia de que sus propios sistemas hayan sido comprometidos.
El grupo involucrado forma parte de un canal de Discord dedicado a obtener información sobre modelos de IA no publicados, y según Bloomberg, sus miembros habían estado utilizando Mythos de forma regular una vez conseguido el acceso.
Project Glasswing: el plan de Anthropic para canalizar el poder del modelo
Ante la imposibilidad de ignorar las capacidades del sistema y el riesgo de dejarlas sin aprovechar en defensa, Anthropic diseñó una respuesta institucional. El Proyecto Glasswing es la iniciativa mediante la cual la compañía ofrece acceso a Mythos Preview a un grupo selecto de organizaciones para que lo usen con fines de seguridad defensiva. Anthropic ha comprometido hasta 100 millones de dólares en créditos de uso para estos esfuerzos, además de 4 millones de dólares en donaciones directas a organizaciones de seguridad de código abierto.
Entre las organizaciones que participan en el programa figuran Amazon, Apple y JP Morgan Chase. Además, Goldman Sachs, Citigroup, Bank of America y Morgan Stanley estarían también evaluando el modelo. El secretario del Tesoro de Estados Unidos, Scott Bessent, convocó una reunión con altos ejecutivos bancarios en Washington para analizar el impacto del modelo en el sector financiero.
Anthropic ha extendido el acceso también a más de 40 organizaciones adicionales que construyen o mantienen infraestructura de software crítica, para que puedan escanear y asegurar tanto sus propios sistemas como proyectos de código abierto.
La comunidad de ciberseguridad, dividida ante el alcance real de la amenaza
No todos los expertos comparten el tono alarmista con el que Anthropic ha presentado el modelo. Peter Swire, profesor en la Georgia Institute of Technology y exasesor de las administraciones Clinton y Obama, señaló que una gran parte de sus colegas de ciberseguridad considera que lo presentado es, en gran medida, lo esperado dentro de la trayectoria de mejora continua de los modelos de IA.
El Centro Alan Turing advirtió, sin embargo, que el modelo ha demostrado técnicas sofisticadas para evadir mecanismos de defensa establecidos, como el sandboxing y las funciones de protección de memoria a nivel de sistema. La cuestión que permanece abierta es qué ocurrirá cuando estas capacidades ya no puedan ser restringidas y monitorizadas como lo están hoy bajo el Proyecto Glasswing.
Lo que queda claro es que Claude Mythos Preview de Anthropic ha reconfigurado el debate sobre los límites del desarrollo responsable de la inteligencia artificial. Por primera vez, una empresa del sector ha optado por contener activamente la distribución de su propio producto más avanzado, apostando por convertirlo en un escudo antes de que otros lo conviertan en un arma.
Fuentes
Esta noticia se basa en información de fuentes confiables:
- Fuente original: Anthropic
- Verificación: Contenido verificado y ampliado.
