✨︎ Resumen (TL;DR):
- El modelo open source DeepSeek V4 Pro quedó a solo 3% de igualar a GPT-5.2 en pruebas de simulación empresarial.
- La inferencia cuesta $0.87 dólares por millón de tokens de salida, una ventaja masiva frente a los precios de OpenAI.
- A pesar de su alta tasa de alucinación, su estructura de precios dominará los flujos de trabajo a gran escala.
El laboratorio chino DeepSeek lanzó este 24 de abril su modelo open source DeepSeek V4 Pro. La inteligencia artificial logró igualar el rendimiento de GPT-5.2 de OpenAI con un margen del 3% de diferencia en la prueba FoodTruck Bench, operando con un costo 17 veces menor.
Los resultados ubican a la nueva IA en el cuarto lugar global de esta evaluación independiente. El modelo superó pruebas de simulación empresarial y quedó solo por detrás de Claude Opus 4.6, GPT-5.2 y Grok 4.3.
El atractivo principal de este lanzamiento radica en su esquema comercial. Mientras GPT-5.2 cobra $1.75 dólares por cada millón de tokens de entrada y $14 dólares por los de salida, DeepSeek V4 Pro factura $0.435 y $0.87 dólares respectivamente.
Esta diferencia genera una ventaja financiera indiscutible para empresas que dependen de grandes tareas de generación automática.

Arquitectura técnica y pruebas de rendimiento
DeepSeek V4 Pro funciona bajo un sistema Mixture-of-Experts de 1.6 billones de parámetros que activa solamente 49 mil millones por token. Esta arquitectura permite una relación de compresión de 30:1 entre parámetros totales y activos.
El modelo cuenta con las siguientes características técnicas:
- Atención híbrida: Combina mecanismos de Compressed Sparse Attention y Heavily Compressed Attention.
- Eficiencia: Requiere únicamente el 27% de los FLOPs de inferencia frente a DeepSeek V3.2 con contexto de un millón de tokens y utiliza solo el 10% de la caché KV.
- Disponibilidad abierta: El código opera bajo licencia MIT y los desarrolladores pueden descargarlo en Hugging Face.
Las evaluaciones independientes detectaron contrastes operativos. La organización CAISI determinó que el rendimiento real de V4 Pro se alinea más con el GPT-5 original lanzado hace ocho meses.
Por su parte, el análisis AA-Omniscience detectó una tasa de alucinación del 94%. El sistema prefiere inventar una respuesta en lugar de abstenerse cuando carece del conocimiento necesario.
DeepSeek emitió un comunicado donde reconoce que su modelo V4 “se queda marginalmente corto” frente a los principales sistemas cerrados debido a una brecha de entre tres y seis meses de desarrollo.
A pesar de las críticas técnicas, el desarrollador Simon Willison confirmó que V4 Pro desplazó a Kimi K2.6 de 1.1 billones de parámetros para convertirse en el modelo de pesos abiertos más grande de la actualidad.
Con seis proveedores de API ofreciendo tarifas desde $0.145 dólares para tokens en caché, la empresa china tiene el camino libre para absorber a los clientes corporativos que necesitan escalar sus sistemas sin agotar presupuestos.
