✨︎ Resumen (TL;DR):
- Más de 580 trabajadores firmaron una carta exigiendo al CEO bloquear el uso de IA en operaciones militares confidenciales.
- En redes militares aisladas, la empresa pierde capacidad técnica para auditar si su software comete errores o abusos.
- Google eliminó en febrero de 2025 sus principios contra el desarrollo de tecnología para armas, priorizando el mercado.
Más de 580 empleados de Google, incluyendo 20 directores y especialistas de DeepMind, enviaron este lunes una carta al CEO Sundar Pichai exigiendo cancelar cualquier acuerdo que permita al Pentágono usar sus sistemas de Inteligencia Artificial en operaciones militares clasificadas.
“Somos empleados de Google profundamente preocupados por las negociaciones en curso entre Google y el Departamento de Defensa de EE. UU.”, advierte el documento reportado por Bloomberg. “Como personas que trabajamos en IA, sabemos que estos sistemas pueden centralizar el poder y que cometen errores”.
El argumento central radica en un problema técnico con severas implicaciones éticas. Una red air-gapped es una infraestructura de seguridad gubernamental que opera aislada por completo de Internet. Bajo este entorno clasificado, la tecnológica pierde toda capacidad de monitorear cómo se utilizan sus herramientas.
“Actualmente, la única manera de asegurar que Google no está contribuyendo a estos daños es rechazar todo trabajo clasificado”, sentencian los firmantes. “De lo contrario, dichos usos pueden ocurrir sin nuestro conocimiento o capacidad de intervenir”.

El riesgo de la IA agéntica en el campo de batalla
El personal teme que el software corporativo termine controlando armas letales autónomas y sistemas de vigilancia masiva. Sofia Liguori, investigadora de IA en DeepMind en Reino Unido, señaló que la respuesta de la directiva se limita a pedirles confianza ciega.
“Pero todo se deja muy vago”, explicó Liguori. “La IA agéntica es particularmente preocupante por el nivel de independencia que puede alcanzar”.
Las pláticas actuales, reportadas por The Information en abril, buscan integrar los modelos Gemini en áreas confidenciales de seguridad nacional. Esto ocurre después de que Google desplegara agentes virtuales para tres millones de trabajadores del Pentágono en un nivel no clasificado durante marzo de 2026.
El conflicto revive el choque interno de 2018 por el Proyecto Maven. En aquel momento, unos 4,000 empleados obligaron a la empresa a abandonar un contrato de análisis de video para drones militares.
Sin embargo, la política interna se endureció hacia el sector corporativo. En febrero de 2025, Google borró de sus directrices la negativa a desarrollar tecnología armamentista, argumentando la “competencia global por el liderazgo en IA”. Para febrero de 2026, unos 800 trabajadores de Google y 100 empleados de OpenAI ya habían firmado una protesta separada contra el uso militar irrestricto de esta tecnología.
“Tomar la decisión equivocada ahora causaría un daño irreparable a la reputación, el negocio y el rol de Google en el mundo”, remata el documento. Ni la empresa ni el Departamento de Defensa emitieron comentarios oficiales ante el despliegue de la carta.
