IA militar: Fichan a expertos en armas para frenar riesgos

IA militar: Fichan a expertos en armas para frenar riesgos

OpenAI y Anthropic contratan especialistas en riesgos químicos y biológicos ante el uso de IA militar en el conflicto de Irán.

Por Humberto Toledo el 18 marzo, 2026 a las 10:20

💡 Resumen (TL;DR):

  • OpenAI y Anthropic están reclutando especialistas en riesgos químicos y biológicos para evitar el mal uso de sus algoritmos.
  • OpenAI ofrece hasta $455,000 dólares por investigadores de seguridad, mientras Anthropic paga hasta $285,000.
  • La estrategia coincide con el despliegue de sistemas de inteligencia artificial del Pentágono en la guerra de Irán.

OpenAI y Anthropic comenzaron a contratar especialistas en riesgos biológicos, químicos y explosivos ante la posibilidad de que sus sistemas de inteligencia artificial sean explotados para fabricar armas de destrucción masiva. Esta iniciativa coincide con el uso militar de la IA por parte del Pentágono en el conflicto de Irán y marca una profunda división en cómo ambas empresas manejan sus contratos de defensa.

Anthropic busca un “Gestor de Políticas, Armas Químicas y Explosivos de Alto Rendimiento”. La vacante exige al menos cinco años de experiencia en defensa contra armas químicas y conocimientos sobre bombas sucias. El puesto ofrece un salario de entre $245,000 y $285,000 dólares anuales.

Por su parte, OpenAI abrió una posición de investigador de “Riesgos Biológicos y Químicos de Frontera” con una compensación de hasta $455,000 dólares. Buscan perfiles con una “mentalidad robusta de red-teaming” para poner a prueba las medidas de seguridad de sus modelos corporativos.

La empresa dirigida por Sam Altman advirtió el año pasado que su ChatGPT Agent es el primer producto clasificado con una capacidad “alta” de riesgo biológico, ya que tiene la capacidad de ayudar a usuarios novatos a crear amenazas químicas reales.

La doctora Stephanie Hare, investigadora tecnológica, cuestionó la seguridad de entrenar algoritmos con información bélica sensible. “No existe un tratado o regulación internacional que rija este tipo de trabajo”, advirtió la especialista.

Un experto en un laboratorio de alta tecnología con traje de materiales peligrosos y máscara antigás interactúa con una pantalla transparente que muestra estructuras moleculares y biológicos simbólicos. A través de una pared de vidrio al fondo, se ve un centro de comando militar con pantallas de mapas y un helicóptero en una pista de aterrizaje externa, lo que sugiere una conexión entre la investigación de riesgos y las operaciones militares.
Un experto en un laboratorio de alta tecnología con traje de materiales peligrosos y máscara antigás interactúa con una pantalla transparente que muestra estructuras moleculares y biológicos simbólicos. A través de una pared de vidrio al fondo, se ve un centro de comando militar con pantallas de mapas y un helicóptero en una pista de aterrizaje externa, lo que sugiere una conexión entre la investigación de riesgos y las operaciones militares.

El papel de la IA en la Operación Furia Épica

El reclutamiento ocurre en medio de la guerra en Irán, iniciada el 28 de febrero con la Operación Furia Épica. El comandante del CENTCOM, Brad Cooper, confirmó el 11 de marzo que las fuerzas estadounidenses utilizan “una serie de sofisticadas herramientas de IA” para procesar bases de datos de inteligencia “en cuestión de segundos”.

  • Maven Smart System: Plataforma del Pentágono que permitió a Estados Unidos atacar 1,000 objetivos en las primeras 24 horas de la guerra.
  • Velocidad operativa: Los sistemas automatizaron la selección de blancos, la planificación de misiones y la evaluación de daños a un ritmo sin precedentes.

OpenAI y Anthropic mantienen posturas opuestas frente a la milicia estadounidense. Altman confirmó el 27 de febrero un acuerdo para integrar los modelos de OpenAI en la red clasificada del Pentágono, con restricciones estrictas contra la vigilancia masiva nacional y la creación de armas autónomas.

En contraste, Anthropic demandó al gobierno estadounidense tras ser catalogada como un riesgo para la cadena de suministro de seguridad nacional al negarse a retirar bloqueos de seguridad similares. Pese al conflicto legal formal, su modelo Claude AI sigue operando activamente en los sistemas provistos por el contratista Palantir, los cuales son utilizados por las agencias de inteligencia en el frente de batalla actual.

FUENTE

Más de AI