✨︎ Resumen (TL;DR):
- OpenAI demostró que su nuevo modelo resuelve retos de ciberseguridad a nivel experto, alcanzando un éxito del 71.4%.
- La inteligencia artificial completó en 11 minutos y por $1.73 dólares una infiltración que exige 12 horas humanas.
- El gobierno británico advierte que el potencial ofensivo de estas herramientas es ya una tendencia generalizada en el desarrollo tecnológico.
El Instituto de Seguridad de IA del Reino Unido (AISI) confirmó que GPT-5.5 de OpenAI posee capacidades ofensivas idénticas a las de Claude Mythos Preview. La evaluación, publicada el 30 de abril, demuestra que la habilidad para vulnerar sistemas corporativos ya no es exclusiva de un solo modelo, sino una característica general de la nueva generación de inteligencia artificial.
En las pruebas extremas, que exigen romper algoritmos criptográficos y explotar vulnerabilidades de memoria, GPT-5.5 logró una tasa de éxito de 71.4%. Esto lo empata estadísticamente con el 68.6% de Mythos Preview, superando por amplio margen a versiones anteriores como GPT-5.4 (52.4%) y Opus 4.7 (48.6%).
El modelo de OpenAI también se convirtió en la segunda IA capaz de completar de principio a fin una simulación de ataque a redes corporativas de 32 pasos, lográndolo en dos de diez intentos. El nivel de velocidad asusta: una tarea de infiltración que a un ingeniero humano le costaría 12 horas de trabajo, la herramienta la resolvió en menos de 11 minutos con un costo operativo de $1.73 dólares.

Choque de estrategias: OpenAI vs. Anthropic
A principios de abril, Anthropic canceló el lanzamiento público de Mythos Preview por su destreza autónoma para encontrar exploits de día cero. La empresa limitó su uso a unas 40 organizaciones verificadas, como Apple, Microsoft y JPMorgan Chase, bajo el programa de acceso controlado Project Glasswing.
El AISI publicó su análisis para aclarar la situación del mercado tech. “Una pregunta clave era si esto reflejaba un avance específico de un solo modelo, o parte de una tendencia más amplia”, explicaron los investigadores en el reporte. “Los resultados de un punto de control temprano de GPT-5.5 sugieren lo segundo”.
OpenAI tomó el camino opuesto. La compañía liberó el modelo al público el 23 de abril, apostando por sus filtros de seguridad internos para bloquear peticiones maliciosas. Días después, el CEO Sam Altman anunció la creación de la variante especializada GPT-5.5-Cyber, diseñada exclusivamente para un grupo selecto de “defensores de confianza”.
La advertencia del AISI evidencia el nuevo riesgo del software avanzado. Si la destreza en ciberataques crece como un efecto secundario del razonamiento de las máquinas, “debemos esperar mayores incrementos en la capacidad cibernética de los modelos en el futuro cercano, potencialmente en rápida sucesión”.
