✨︎ Resumen (TL;DR):
- Firmas como CrowdStrike y Palo Alto Networks cayeron hasta un 7% tras un error en los servidores de Anthropic.
- Se filtraron casi 3,000 documentos del proyecto “Claude Mythos”, un modelo que supera a Opus 4.6.
- La propia empresa advierte que la herramienta tiene capacidades de hackeo que superan los esfuerzos de los defensores actuales.
Las acciones de las principales empresas de ciberseguridad sufrieron fuertes caídas este viernes luego de que una filtración masiva revelara que Anthropic desarrolla un nuevo modelo de inteligencia artificial. Claude Mythos es un proyecto interno que la propia startup describe como un riesgo sin precedentes para la seguridad corporativa.
El impacto en el mercado bursátil fue agresivo. CrowdStrike cayó un 7%, Palo Alto Networks un 6% y Zscaler un 4.5%. Otras firmas de infraestructura como Okta, SentinelOne y Fortinet perdieron cerca de un 3% cada una, arrastrando al fondo cotizado Global X Cybersecurity ETF a una pérdida del 2.7%.
La liquidación masiva de acciones fue detonada por un reporte exclusivo de la revista Fortune sobre una base de datos expuesta por un “error humano” en el CMS de Anthropic. Los investigadores de seguridad Roy Paz (LayerX Security) y Alexandre Pauwels (Universidad de Cambridge) encontraron casi 3,000 documentos inéditos en la red.
En los textos internos, la compañía describe la tecnología clasificada en el nivel Capybara como “de lejos, el modelo de IA más poderoso que hemos desarrollado”. Un vocero de Anthropic confirmó a Fortune que están “desarrollando un modelo de propósito general con avances significativos en razonamiento, programación y ciberseguridad” y enfatizó que están “siendo deliberados sobre cómo lo lanzamos”.

Un riesgo crítico para la defensa digital
Lo que desató el pánico de los inversionistas fue el lenguaje técnico de los documentos. Los borradores filtrados sentencian que el modelo está “actualmente muy por delante de cualquier otro modelo de IA en capacidades cibernéticas”.
El texto interno va más allá y advierte que este avance algorítmico “presagia una próxima ola de modelos que pueden explotar vulnerabilidades de formas que superan con creces los esfuerzos de los defensores”.
Para mitigar este riesgo inminente, la estrategia comercial de Anthropic contemplaba entregar la herramienta primero a los equipos de defensa corporativa. “Lo estamos lanzando en early access para organizaciones, dándoles ventaja para mejorar la solidez de sus bases de código contra la inminente ola de exploits impulsados por IA”, señalaba el blog antes de ser eliminado.
El desplome financiero revive el escenario de febrero pasado, cuando el lanzamiento de la herramienta de escaneo autónomo Claude Code Security provocó caídas del 10% en gigantes del sector. En aquel momento, el CEO de Palo Alto Networks, Nikesh Arora, cuestionó el pesimismo de Wall Street y aclaró que sus clientes exigían integrar más IA para protegerse, no menos.
El riesgo de un mal uso ya tiene antecedentes comprobados. Anthropic reconoció previamente que actores maliciosos, incluyendo grupos vinculados al gobierno chino, intentaron usar sus herramientas como armas. De hecho, la empresa bloqueó recientemente una campaña que utilizó Claude Code para infiltrarse en al menos 30 organizaciones distintas.
Fuentes: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24
