Anthropic bloquea a Europa de las pruebas de su IA Claude Mythos

Anthropic bloquea a Europa de las pruebas de su IA Claude Mythos

Anthropic excluyó a Europa de las pruebas de su IA Claude Mythos, priorizando a empresas de EE. UU. y al Reino Unido.

Por Humberto Toledo el 14 abril, 2026 a las 11:46 PDT

✨︎ Resumen (TL;DR):

  • Anthropic limitó el acceso técnico de su nuevo modelo a 12 gigantes estadounidenses y al gobierno británico.
  • La IA alcanzó un 73 por ciento de éxito en desafíos cibernéticos expertos y detectó fallas ocultas por 27 años.
  • Las agencias europeas advierten que esta exclusión amenaza la soberanía y seguridad tecnológica del continente.

Anthropic dejó fuera a los reguladores europeos de las pruebas de su nuevo modelo de inteligencia artificial. Durante el anuncio del 7 de abril, la firma reservó el acceso de Claude Mythos Preview a una coalición de corporativos estadounidenses y al gobierno británico, lo que provocó reclamos de las agencias continentales que exigen auditar el software para proteger su soberanía.

El despliegue formó parte de Project Glasswing, una iniciativa de ciberseguridad defensiva que entregó los accesos a 12 organizaciones asociadas. La lista incluye nombres como Amazon, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Microsoft, Nvidia, Palo Alto Networks y la Linux Foundation. Una investigación de Politico reveló que ocho agencias europeas de ciberseguridad fueron ignoradas en este proceso técnico.

La Oficina Federal de Seguridad de la Información de Alemania (BSI) evidenció el bloqueo. Claudia Plattner, presidenta de la BSI, indicó que estuvieron “en contacto con el fabricante Anthropic con respecto a Claude Mythos”, pero sin acceso directo al código. Plattner advirtió sobre “trastornos en el manejo de vulnerabilidades de seguridad y en el panorama de vulnerabilidades en su conjunto”, y subrayó que el bloqueo “plantea cuestiones de seguridad y soberanía nacional y europea”.

En la misma línea, la agencia de ciberseguridad de Países Bajos reconoció que “el impacto real de las vulnerabilidades encontradas es difícil de verificar sin detalles técnicos”. La ENISA, máxima autoridad cibernética de la UE, guardó silencio al respecto.

Hacker vulneró 9 agencias en México usando Claude y ChatGPT
Te podría interesar:
Hacker vulneró 9 agencias en México usando Claude y ChatGPT
Fotos de stock gratuitas de afecto, al aire libre, arboles
Foto: Alexis Ricardo Alaurin / Pexels

Un trato preferencial para el Reino Unido

El contraste con el gobierno británico es directo. El Instituto de Seguridad de IA del Reino Unido (AISI) sí auditó la herramienta. Kanishka Narayan, ministro de IA británico, confirmó en X que Mythos es “el modelo más capaz que jamás hayamos evaluado para ciberseguridad y el primero en completar uno de nuestros rangos cibernéticos de principio a fin”. Además, sentenció: “Hemos tomado medidas basadas en nuestros hallazgos”.

Los reportes del AISI confirmaron que la IA logró un 73 por ciento de éxito resolviendo desafíos capture-the-flag de nivel experto, superando a cualquier otro modelo del mercado.

Ante el panorama, la Comisión Europea argumentó que está “monitoreando las implicaciones de seguridad” y mantiene diálogo con Anthropic, pero la distancia entre hablar y auditar el código es crítica para el bloque.

Europa carece de laboratorios de IA de frontera propios y enfrenta problemas estructurales de compute. Anthropic demostró que Mythos puede descubrir miles de vulnerabilidades zero-day en sistemas operativos y navegadores, algunas sin parches durante 27 años. El derecho a examinar este nivel de tecnología dejó de ser un trámite corporativo y escaló a un problema de seguridad nacional.

Fuentes: 1, 2, 3, 4, 5

+ Temas Relacionados

Más de AI

Feed