✨︎ Resumen (TL;DR):
- Anthropic investiga un drenaje masivo de tokens en su asistente de programación.
- Un fallo técnico dispara los costos hasta 20 veces; usuarios agotan planes de $100 dólares en 19 minutos.
- La empresa declara el problema como su máxima prioridad, sin ofrecer aún una fecha de solución.
Anthropic confirmó que investiga un problema crítico que consume de forma acelerada las cuotas de uso en su asistente Claude Code. El fallo provocó una ola de quejas durante el fin de semana por parte de suscriptores de pago, quienes reportan bloqueos en la herramienta a las pocas horas o minutos de iniciar su jornada de trabajo.
El agotamiento de las cuotas coincide con varios ajustes recientes de la compañía. El 28 de marzo terminó una promoción que duplicaba los límites de uso fuera de horarios pico. Además, la empresa restringió recientemente los límites de sesión de cinco horas durante la mayor demanda (5 a.m. a 11 a.m., hora del Pacífico).
Sin embargo, los desarrolladores identificaron que el problema va más allá de un cambio de políticas. Un usuario del plan Max 5x, que paga $100 dólares mensuales, reportó que consumió toda su cuota en apenas 19 minutos. En casos extremos, enviar un simple “hola” a la inteligencia artificial consumía cerca del 2% del presupuesto de tokens de toda una sesión.

Un error letal en la gestión de caché
Una investigación técnica independiente señala a dos bugs introducidos en la versión 2.1.69 de Claude Code como los responsables.
El Prompt caching es un sistema que reduce drásticamente los costos de IA al reutilizar el contenido enviado previamente, abaratando la lectura a una décima parte del precio original. Cuando esta función falla, los costos se disparan silenciosamente entre 10 y 20 veces.
El análisis detectó dos fallos principales:
* El binario de Claude Code inserta un hash de facturación único en los encabezados que cambia con cada sesión, invalidando la caché cruzada.
* El comando --resume provoca un fallo total en el historial de la conversación, obligando al sistema a reprocesar cientos de miles de tokens desde cero.
“Volver a la versión 2.1.34 hizo una diferencia muy notable”, indicó un desarrollador afectado, confirmando que las versiones anteriores no presentan la falla.
Este incidente subraya la tensión creciente entre los modelos de suscripción y los costos reales de operar grandes modelos de lenguaje, un escenario similar al que enfrentó Google con su herramienta Antigravity a principios de mes.
“Estamos investigando activamente… es la máxima prioridad para el equipo, y sabemos que esto está bloqueando a mucha gente”, escribió un representante de Anthropic, sin detallar cuándo implementarán un parche definitivo.
