Sam Altman restringe GPT-5.5-Cyber y copia a Anthropic

Sam Altman restringe GPT-5.5-Cyber y copia a Anthropic

OpenAI restringe el acceso a GPT-5.5-Cyber, copiando la estrategia que Sam Altman criticó de Anthropic hace semanas.

Por Humberto Toledo el 1 mayo, 2026 a las 07:42 PDT

✨︎ Resumen (TL;DR):

  • OpenAI limitará su nuevo modelo de inteligencia artificial de ciberseguridad solo a defensores críticos.
  • GPT-5.5 alcanzó un 71.4% de éxito en tareas de nivel experto, superando a su competidor Claude Mythos.
  • La medida ocurre apenas semanas después de que Sam Altman acusara a Anthropic de alarmismo por aplicar la misma restricción.

El 29 de abril, el CEO de OpenAI, Sam Altman, anunció que la compañía comenzará a desplegar su nuevo modelo GPT-5.5-Cyber exclusivamente para defensores cibernéticos críticos. Esta decisión adopta la misma estrategia de acceso restringido que su rival Anthropic aplicó en abril, la cual Altman ridiculizó públicamente por considerarla exagerada.

Durante su participación en un podcast el 21 de abril, Altman acusó a Anthropic de usar “marketing basado en el miedo” al limitar el acceso a Claude Mythos Preview. En ese momento, argumentó que la empresa exageraba los peligros del modelo para justificar mantener una IA poderosa “en manos de una pequeña y exclusiva élite”.

Ahora, la compañía ejecuta la misma táctica. A través de la red social X, el CEO confirmó el lanzamiento cerrado: “Comenzaremos el despliegue de GPT-5.5-Cyber, un modelo de ciberseguridad de frontera, para defensores cibernéticos críticos en los próximos días. Trabajaremos con todo el ecosistema y el gobierno para definir un acceso de confianza para el sector cibernético”.

GPT-5.5-Cyber es un modelo de inteligencia artificial avanzado que analiza, simula y defiende redes corporativas frente a ataques informáticos de alta complejidad.

Anthropic busca valorarse en 900 mil mdd
Te podría interesar:
Anthropic busca valorarse en 900 mil mdd
Fotos de stock gratuitas de abstracto, arquitectura, Arte
Foto: David Yu / Pexels

Rendimiento técnico superior al análisis humano

El despliegue de OpenAI coincide con una evaluación del Instituto de Seguridad de IA del Reino Unido, publicada el 30 de abril. La agencia concluyó que GPT-5.5 es “uno de los modelos más fuertes que hemos probado en nuestras tareas cibernéticas”.

Los datos oficiales del instituto revelan las tasas de aprobación en pruebas de nivel experto entre los modelos punteros de la industria:

  • GPT-5.5 alcanzó el 71.4% de éxito.
  • Mythos Preview (Anthropic) registró un 68.6%.
  • GPT-5.4 obtuvo un 52.4%.
  • Opus 4.7 cerró la lista con 48.6%.

Además, la agencia británica confirmó que GPT-5.5 es apenas el segundo modelo en completar de principio a fin una simulación de ataque a una red corporativa de 32 pasos. Este mismo ejercicio tomaría a un experto humano cerca de 20 horas de trabajo.

Esta restricción se integra al programa Trusted Access for Cyber de OpenAI lanzado en febrero. Sin embargo, el hermetismo técnico responde a presiones externas reales: la administración Trump ya frenó los planes de Anthropic para expandir el acceso de Mythos a 70 empresas por preocupaciones de seguridad nacional y capacidad de hardware, según reportes de Bloomberg. La exclusividad de la IA dejó de ser una decisión corporativa para convertirse en una exigencia gubernamental.

Fuentes: 1, 2, 3, 4

+ Temas Relacionados

Más de AI

Feed