💡 Resumen (TL;DR):
- OpenAI expande su familia de IA con dos modelos compactos orientados a tareas de alto volumen.
- GPT-5.4 mini alcanza un 72.1% de efectividad en la prueba OSWorld-Verified y opera al doble de velocidad.
- Ambos sistemas incrementan sus costos por millón de tokens en comparación con la generación pasada.
OpenAI lanzó este lunes GPT-5.4 mini y GPT-5.4 nano, dos modelos de inteligencia artificial compactos diseñados para priorizar la velocidad y eficiencia en cargas de trabajo de alto volumen. Este lanzamiento ocurre dos semanas después del debut de su sistema insignia, completando la familia actual de la compañía tecnológica.
El nuevo GPT-5.4 mini es un modelo optimizado que supera a su predecesor en programación, razonamiento lógico, uso de herramientas y comprensión multimodal, operando al doble de velocidad. En métricas técnicas de computadora, logró un contundente 72.1% en OSWorld-Verified, superando por mucho el 42.0% de la generación pasada, y un 54.4% en SWE-Bench Pro.
Por su parte, la versión nano es el modelo más pequeño del catálogo. Está diseñado para tareas donde la latencia y el costo son críticos, como extracción de datos, clasificación y soporte de subagentes. En su comunicado oficial, OpenAI garantizó que representa “una mejora significativa sobre GPT-5 nano”.

Disponibilidad en ChatGPT y ajuste de precios
Los usuarios de los planes Free y Go ya pueden acceder a la versión mini mediante la función Thinking en la aplicación de ChatGPT. Los suscriptores de paga lo utilizarán automáticamente como respaldo cuando el modelo principal alcance su límite de peticiones. También se integra en el asistente de programación Codex y vía API, mientras que la versión nano es exclusiva para desarrolladores mediante API.
El aumento de capacidad llega acompañado de nuevas tarifas comerciales:
- GPT-5.4 mini: Cuesta $0.75 dólares por millón de tokens de entrada y $4.50 dólares por millón de salida (el triple y el doble que GPT-5 mini, respectivamente).
- GPT-5.4 nano: Inicia en $0.20 dólares por millón de tokens de entrada y $1.25 dólares por salida, cuadruplicando el costo de entrada de su predecesor.
Ambos modelos soportan una ventana de contexto masiva de 400,000 tokens. Para mitigar el alza de precios, OpenAI propone una arquitectura de subagentes en su plataforma Codex. Bajo este esquema, el modelo principal planifica mientras delega búsquedas de código a las versiones compactas. Usar la versión mini consume apenas el 30% de la cuota principal, reduciendo los costos operativos de tareas repetitivas a un tercio.