💡 Resumen (TL;DR):
- Anthropic eliminó la tarifa premium para solicitudes que superen los 200,000 tokens en sus modelos Claude Opus 4.6 y Sonnet 4.6.
- El límite multimedia aumentó drásticamente, permitiendo ahora adjuntar hasta 600 imágenes o páginas PDF por consulta.
- La actualización reduce a la mitad el costo de entrada para flujos de trabajo pesados como revisión de código y documentos legales.
Anthropic anunció este jueves la eliminación de su tarifa premium para ventanas de contexto extensas en los modelos Claude Opus 4.6 y Sonnet 4.6. A partir de hoy, los desarrolladores accederán a la capacidad de un millón de tokens bajo las tarifas estándar, eliminando el multiplicador que duplicaba los costos de input para peticiones mayores a 200,000 tokens.
Bajo la antigua estructura de la beta, los usuarios de Claude Opus 4.6 que superaban los 200,000 tokens pagaban $10 dólares por millón de tokens de entrada y $37.50 dólares por millón de salida. Esto representaba el doble y 1.5 veces las tarifas base de $5 y $25 dólares, respectivamente.
Para el modelo Sonnet 4.6 aplicaban los mismos multiplicadores sobre su costo base de $3 y $15 dólares. Ahora, una petición de 900,000 tokens cuesta exactamente lo mismo por unidad que una de 9,000.
La empresa también expandió el límite de archivos adjuntos. Las consultas pasaron de soportar 100 a 600 imágenes o páginas PDF por solicitud, una mejora técnica dirigida directamente a equipos legales que procesan contratos complejos y a investigadores científicos que filtran bases de datos literarias.

Competencia directa y métricas de precisión
Los desarrolladores ya no requieren configurar un encabezado de beta para utilizar la ventana de contexto máxima; cualquier prompt masivo se procesa de forma automática en la API.
El millón de tokens está habilitado en la Claude Platform y a través de los ecosistemas de Amazon Bedrock, Google Cloud Vertex AI y Microsoft Foundry.
El movimiento coloca a Claude en una posición comercial agresiva frente a las grandes tecnológicas. Gemini 2.5 Pro de Google ofrece la misma capacidad de un millón de tokens, pero mantiene un cobro premium a partir de los 200,000. Por su parte, el modelo más capaz de OpenAI, GPT-5.4, topa su procesamiento en 256,000 tokens.
El desarrollador Simon Willison destacó la importancia técnica y financiera de esta actualización: “OpenAI y Gemini cobran más por prompts donde el recuento de tokens supera un punto determinado”.
Para garantizar la fiabilidad del modelo en lecturas masivas, Anthropic publicó resultados de rendimiento recientes. Opus 4.6 alcanzó un 78.3% en la prueba MRCR v2 utilizando el millón de tokens completo, registrando la mayor precisión de recuperación de información entre la actual generación de modelos.
La nivelación de precios no hace que el uso de IA masiva sea barato, pero sí predecible. Ingresar un millón de tokens en Opus sigue costando $5 dólares antes de generar una respuesta. Sin embargo, para cargas de trabajo enfocadas en análisis de codebases y auditoría legal, el costo corporativo acaba de recortarse un 50% en procesamiento de entrada y un 33.3% en salida.