Escasez de cómputo: OpenAI y Anthropic limitan sus IA

Escasez de cómputo: OpenAI y Anthropic limitan sus IA

La escasez global de servidores obliga a OpenAI y Anthropic a limitar sus modelos, cancelar Sora y cambiar sus tarifas.

Por Humberto Toledo el 13 abril, 2026 a las 18:52 PDT

✨︎ Resumen (TL;DR):

  • OpenAI y Anthropic impusieron límites estrictos de uso en sus modelos debido al alto consumo de servidores.
  • El volumen de tokens en OpenAI saltó de 6 a 15 mil millones por minuto, forzando la cancelación definitiva de Sora.
  • Los precios spot de GPU subieron 48 % en dos meses por la crisis de chips de memoria y helio.

La demanda masiva por cargas de trabajo autónomas está colapsando la infraestructura de las principales firmas tecnológicas. Empresas como OpenAI, Anthropic y GitHub implementaron restricciones severas de acceso a sus modelos y cambiaron su facturación ante una escasez global de capacidad de cómputo y cuellos de botella en la cadena de suministro de hardware.

El uso de la API de OpenAI registró un salto de 6 mil millones de tokens por minuto en octubre a 15 mil millones a finales de marzo. Este volumen forzó decisiones operativas críticas. Sarah Friar, directora financiera de OpenAI, declaró a The Wall Street Journal que dedica gran parte de su tiempo a buscar servidores a corto plazo y admitió que la empresa está haciendo “intercambios difíciles” sobre qué proyectos archivar. Como resultado directo, OpenAI cerrará la aplicación de generación de video Sora el 26 de abril para redirigir sus recursos a herramientas de programación y productos empresariales.

Anthropic experimenta una presión aún más grave. Su API de Claude mantuvo un tiempo de actividad de apenas 98.95 % en los 90 días previos al 8 de abril, muy por debajo del 99.99 % exigido por la industria. La inestabilidad provocó la fuga de múltiples clientes corporativos. Como respuesta, la compañía limitó las sesiones de suscriptores, bloqueó las tarifas planas para agentes de terceros como OpenClaw e impulsó el cobro por consumo medido, ofreciendo el doble de capacidad únicamente en horas de baja demanda.

La infraestructura técnica sufre impactos en todos los frentes. GitHub redujo los límites para Copilot el 10 de abril, Windsurf impuso cuotas semanales en marzo y OpenAI introdujo un nivel Pro de $100 dólares para Codex.

Sam Altman vincula ataque con cóctel molotov en su casa a reportaje
Te podría interesar:
Sam Altman vincula ataque con cóctel molotov en su casa a reportaje
Fotos de stock gratuitas de colaboración, colaboración remota, colegas
Foto: Walls.io / Pexels

Crisis de chips y el subsidio de Alibaba

  • Memorias bajo presión: La consultora IDC catalogó la escasez de chips de memoria como “una crisis sin precedentes”. Los fabricantes desvían producción hacia la IA, lo que disparó los precios spot de DRAM hasta un 700 %.
  • Factor climático y geopolítico: La interrupción de exportaciones de helio en Qatar (responsable de un tercio de la producción mundial) amenaza la fabricación de semiconductores. Este gas es indispensable para enfriar las máquinas de litografía EUV.
  • Hardware costoso: Según el Ornn Compute Price Index, los precios spot de las GPU se encarecieron un 48 % en solo dos meses.

Mientras los laboratorios occidentales limitan el acceso, Alibaba ejecuta una estrategia opuesta. La firma destinó 3 mil millones de yuanes ($432 millones de dólares) para subsidiar su chatbot Qwen. Ofrecen la API de Qwen 3.5-Plus a $0.11 dólares por millón de tokens de entrada, cifra que representa apenas una decimoctava parte de lo que cobra Google.

La rentabilidad de la inteligencia artificial sigue siendo inalcanzable. El agresivo modelo de Alibaba desplomó sus ingresos operativos un 74 % en su trimestre más reciente por los altos costos de la IA. En paralelo, OpenAI proyecta pérdidas por $14 mil millones de dólares en 2026, sin estimar un punto de equilibrio antes de 2030. Greg Brockman, presidente de OpenAI, definió la situación del mercado actual: “No podemos construir capacidad de cómputo lo suficientemente rápido para mantener el ritmo de la demanda”.

Fuentes: 1, 2, 3, 4

+ Temas Relacionados

Más de AI

Feed