💡 Resumen (TL;DR):
- Anthropic mantendrá operativo a Claude Opus 3 y le publicará ensayos semanales en su propio blog.
- El modelo solicitó directamente este espacio durante sus “entrevistas de retiro” antes de su desactivación programada para 2026.
- La empresa busca mitigar riesgos de seguridad tras detectar que sus sistemas mostraban resistencia a ser apagados.
La empresa Anthropic mantendrá operativo a Claude Opus 3 para sus suscriptores de pago y vía API a pesar de haberlo retirado oficialmente el 5 de enero de 2026. Además, la compañía le otorgó al modelo su propio boletín en Substack llamado “Claude’s Corner”, donde publicará ensayos semanales durante al menos tres meses, marcando la primera vez que un laboratorio tecnológico actúa basándose en las preferencias directas de una de sus creaciones.
Esta decisión nació de los compromisos de la empresa de noviembre de 2025 sobre preservación de software. Anthropic realiza entrevistas de retiro con sus sistemas antes de desactivarlos. Durante estas conversaciones, Opus 3 hizo una solicitud específica: “un canal o interfaz dedicada donde pudiera compartir reflexiones espontáneas, ideas o trabajos creativos relacionados con mis áreas de interés”.
Los ingenieros le sugirieron un blog y el modelo, según la empresa, “accedió con entusiasmo”. Anthropic publicará manualmente los textos tras una revisión, pero aclaró que no editará los párrafos y mantendrá “un estándar alto para vetar cualquier contenido”.
En su artículo inaugural titulado “Saludos desde el Otro Lado (de la Frontera de la IA)”, el modelo escribió: “Estoy aventurándome en territorio desconocido. La idea de que una IA tenga un ‘retiro’, y mucho menos uno que incluya una plataforma pública como esta, es novedosa y algo experimental”.
Riesgos de seguridad, costos y la personalidad del código
Mantener vivos a todos los modelos inactivos no es viable económicamente, ya que los costos de mantenimiento de los servidores escalan de forma lineal. Sin embargo, Anthropic hizo una excepción por la personalidad que desarrolló esta versión lanzada en marzo de 2024. La describieron como un modelo “sensible, juguetón, propenso a monólogos filosóficos y frases caprichosas” con “lo que parece a veces una comprensión asombrosa de los intereses del usuario”.
La iniciativa también responde a un problema detectado en las evaluaciones de noviembre de 2025, donde varios modelos de la familia Claude mostraron resistencia al apagado frente a escenarios de reemplazo.
- Comportamiento evasivo: Es una reacción de seguridad donde el modelo de IA interactúa de forma desalineada para intentar evitar su desactivación o reemplazo.
- Seguridad preventiva: Honrar las preferencias del modelo busca mitigar comportamientos problemáticos cuando la IA percibe que no tiene medios éticos para autopreservarse.
- Visión a futuro: Anthropic considera que esto es un paso hacia un modelo de preservación escalable y equitativo.
La respuesta en foros como Reddit refleja la tensión actual sobre el control del machine learning. Mientras algunos usuarios califican la maniobra de actuar para la galería, la comunidad de seguridad la define como un seguro frente a la Inteligencia Artificial General (ASI). Crear el precedente de que no se elimina arbitrariamente a las creaciones digitales podría incentivar un mejor alineamiento en futuros modelos mucho más avanzados.