Anthropic desafía al Pentágono y lanza instituto sobre el impacto de la IA

Anthropic desafía al Pentágono y lanza instituto sobre el impacto de la IA

Anthropic lanza instituto de políticas públicas en medio de un millonario conflicto legal con el Pentágono por Claude.

Por Humberto Toledo el 11 marzo, 2026 a las 06:43

💡 Resumen (TL;DR):

  • Anthropic inauguró un instituto de investigación para evaluar el impacto social y legal de la inteligencia artificial.
  • La empresa enfrenta un veto del gobierno de Donald Trump que amenaza con recortar miles de millones de dólares de sus ingresos para 2026.
  • El conflicto estalló tras la negativa de la compañía a permitir que su modelo Claude operara en armas autónomas y vigilancia masiva.

Anthropic presentó este martes el Anthropic Institute, un centro de investigación enfocado en medir el impacto social de los sistemas de inteligencia artificial. El lanzamiento ocurre en paralelo a una agresiva batalla legal contra el Pentágono, que clasificó a la empresa como un riesgo de seguridad nacional por negarse a usar su tecnología en aplicaciones militares.

El cofundador Jack Clark asumirá la dirección del instituto bajo su nuevo rol como jefe de Beneficio Público. La iniciativa absorbe tres divisiones internas: el Frontier Red Team, el equipo de Impactos Sociales y el de Investigación Económica. Además, suma nuevas áreas para predecir el comportamiento de la IA y su interacción con el marco legal.

El equipo fundador incluye a investigadores destacados como Matt Botvinick (ex Google DeepMind), el economista Anton Korinek y Zoë Hitzig (ex OpenAI). En el anuncio oficial, Clark advirtió que los próximos dos años traerán “un progreso de la IA mucho más dramático que el actual”, exigiendo soluciones urgentes para el desplazamiento laboral y la gobernanza de sistemas de autoaprendizaje.

Para respaldar esta estrategia, Anthropic triplicará su equipo de política pública y abrirá su primera oficina permanente en Washington, D.C. esta primavera.

El anuncio llega mientras la compañía escala su pleito legal con la administración de Donald Trump. El 9 de marzo, la empresa presentó dos demandas federales luego de que el Pentágono la catalogara el 4 de marzo como un riesgo para la cadena de suministro, una etiqueta aplicada comúnmente a entidades extranjeras hostiles.

La ruptura ocurrió tras el fracaso de una negociación por un contrato de defensa de $200 millones de dólares. Anthropic bloqueó el acuerdo al impedir que su modelo de lenguaje Claude se utilizara para armamento autónomo o programas de vigilancia masiva nacional. En respuesta, el secretario de Defensa, Pete Hegseth, anunció el 27 de febrero el bloqueo comercial de la empresa, seguido por una orden presidencial para eliminar sus productos del gobierno.

Anthropic desafía al Pentágono y lanza instituto sobre el impacto de la IA

El costo financiero de la ética en la IA

El impacto económico de estas medidas gubernamentales es crítico. El director financiero, Krishna Rao, declaró en documentos judiciales que el veto podría recortar los ingresos de 2026 en “varios miles de millones de dólares”.

  • Contratos de defensa: Rao estimó una pérdida de entre el 50% y el 100% de la facturación proveniente de contratistas militares.
  • Sector público: Thiyagu Ramasamy, jefe del sector público, proyectó una caída inmediata de $150 millones de dólares y alertó que más de $500 millones de dólares previstos para 2026 están en riesgo inminente.

Esta crisis choca con la fase de mayor hipercrecimiento de la empresa. Según Bloomberg, Anthropic alcanzó un ritmo de ingresos anuales de casi $20,000 millones de dólares, más del doble de los $9,000 millones de dólares registrados a finales de 2025.

Pese a la facturación masiva, la compañía no es rentable debido a inversiones superiores a los $10,000 millones de dólares en el entrenamiento y despliegue de su hardware y software. La situación se vuelve aún más compleja al considerar que sus principales inversores, Amazon y Google, son actores clave en la contratación federal estadounidense.

La tensión entre los principios corporativos y el poder estatal marca un punto de inflexión en Silicon Valley. Como advirtió el CEO Dario Amodei en un ensayo reciente: “La humanidad está a punto de recibir un poder casi inimaginable, y es profundamente incierto si nuestros sistemas sociales, políticos y tecnológicos poseen la madurez para ejercerlo”.

Contenido recomendado