EE. UU. ataca Irán con IA de Anthropic horas tras veto de Trump

EE. UU. usó la IA de Anthropic para atacar Irán, horas después de que Donald Trump ordenara prohibir esta tecnología.

Por Humberto Toledo el 1 marzo, 2026

💡 Resumen (TL;DR):

  • El presidente Donald Trump lanzó un ataque aéreo en Irán apoyado por tecnología de Anthropic, horas después de prohibirla a nivel federal.
  • El Comando Central de EE. UU. depende del modelo Claude para evaluar inteligencia táctica y simular combates.
  • El Departamento de Defensa tardará seis meses en retirar el software y cerró acuerdos para integrar alternativas de OpenAI y xAI.

El presidente Donald Trump lanzó un gran ataque aéreo en Irán apoyado en herramientas de inteligencia artificial de Anthropic, apenas horas después de ordenar que el gobierno federal termine cualquier uso de esta tecnología. La ofensiva ocurrió usando este software porque diversos comandos militares dependen de él para ejecutar sus misiones.

Personas familiarizadas con el asunto confirmaron que comandos de todo el mundo operan estos sistemas. El Comando Central de Estados Unidos en Medio Oriente declinó hacer comentarios sobre las plataformas específicas que utiliza en su operación actual contra Irán.

Claude es una herramienta de inteligencia artificial que ejecuta evaluaciones de inteligencia, identifica objetivos y simula escenarios de batalla. Su despliegue demuestra lo incrustado que está este software en las operaciones militares modernas.

El viernes, Trump ordenó a las agencias detener su trabajo con la compañía. Simultáneamente, el Departamento de Defensa designó a Anthropic como una amenaza de seguridad y un riesgo directo para su cadena de suministro.

La fractura con el Pentágono y la transición tecnológica

La administración federal y la empresa mantuvieron disputas durante meses sobre cómo el Pentágono podía usar estos modelos de machine learning. La tensión estalló por las siguientes razones operativas y políticas:

  • Anthropic se negó a permitir que el ejército usara sus herramientas en todos los escenarios legales durante la negociación de su contrato.
  • La empresa ejerció un constante cabildeo contra las políticas de inteligencia artificial de la administración.
  • Sus vínculos con organizaciones que fungen como grandes donantes demócratas molestaron a los funcionarios del gobierno.

El uso de Claude en misiones de alto perfil, como la operación militar estadounidense que capturó al presidente venezolano Nicolás Maduro, explica por qué la administración indicó que tomará seis meses eliminar gradualmente esta tecnología.

Se trata de un proceso logístico complicado debido a la forma en que los socios gubernamentales, incluida la firma de minería de datos Palantir, integran la plataforma.

Mientras la relación se deterioraba, el Departamento de Defensa alcanzó acuerdos para usar a la competencia en entornos clasificados. El ejército cerró tratos con OpenAI, creador de ChatGPT, y con xAI, la empresa de Elon Musk.

Expertos en inteligencia artificial afirmaron que reemplazar a Claude con los otros modelos tomará meses de trabajo técnico. Este complejo proceso de sustitución confirma que apagar y reemplazar el software militar en medio de conflictos activos requiere mucho más tiempo que emitir una orden ejecutiva.

Contenido recomendado