✨︎ Resumen (TL;DR):
- DeepSeek liberó las versiones de prueba de sus modelos V4-Pro y V4-Flash bajo licencia abierta.
- El modelo V4-Pro procesa ventanas de un millón de tokens y es nueve veces más barato que GPT-5.5 en salida.
- Su compatibilidad con procesadores locales como Huawei Ascend impulsa la independencia tecnológica de China frente a Nvidia.
El laboratorio chino DeepSeek presentó este miércoles las versiones preliminares de su esperado modelo V4. La compañía lanzó dos variantes de código abierto que alcanzan la paridad técnica con los sistemas cerrados más potentes del mundo, operando a una fracción del costo habitual.
A través de su cuenta oficial en X, la empresa declaró: “DeepSeek-V4 Preview está oficialmente en vivo y es de código abierto”, anunciando el inicio de “la era de la longitud de contexto de 1 millón rentable”. Ese mismo día publicaron los pesos del sistema y el reporte técnico en la plataforma Hugging Face.
DeepSeek-V4 es un modelo de inteligencia artificial basado en la arquitectura Mixture-of-Experts que procesa ventanas de contexto masivas reduciendo el consumo de hardware.
La versión insignia, V4-Pro, opera con 1.6 billones de parámetros totales (49 mil millones activados por token). Por su parte, la variante más ligera V4-Flash utiliza 284 mil millones de parámetros. Ambos modelos soportan la lectura simultánea de un millón de tokens.
Mediante un mecanismo de atención híbrida, el V4-Pro requiere solo el 27% del poder de cómputo para inferencia y el 10% de la memoria caché frente a su versión anterior, DeepSeek-V3.2, procesando la misma cantidad de contexto.

Rendimiento en código y guerra de precios
En pruebas internas con el modo de máximo razonamiento activado, el V4-Pro obtuvo 93.5 puntos en LiveCodeBench y un rating de 3,206 en Codeforces, superando los registros de Gemini-3.1-Pro de Google y GPT-5.4 de OpenAI.
En el estándar SWE-bench Verified, el modelo alcanzó un 80.6% de efectividad, quedando a décimas del líder actual Opus-4.6 de Anthropic (80.8%). El reporte técnico califica al V4-Pro-Max como “el mejor modelo de código abierto disponible hoy”.
La verdadera disrupción ocurre en el precio. Según las tarifas publicadas, la API del V4-Pro cuesta $1.74 dólares por millón de tokens de entrada y $3.48 dólares de salida. Análisis de Apidog indican que esto lo hace nueve veces más barato que GPT-5.5 en la generación de texto.
El hardware chino como pilar estratégico
Este lanzamiento cierra un ciclo lleno de complicaciones. El proyecto proyectaba salir al mercado en febrero de 2026, pero sufrió dos retrasos vinculados a problemas con la infraestructura de los procesadores Huawei Ascend.
La alta compatibilidad del modelo V4 con los microchips asiáticos marca un paso crítico para la industria de China en su camino hacia la “des-CUDA-ización”, independizándose de la programación base de Nvidia.
Proveedores en la nube como Alibaba, ByteDance y Tencent preordenaron cientos de miles de chips de nueva generación para comercializar este sistema. El V4 ya está habilitado en el chat de DeepSeek y sus archivos pueden descargarse libremente bajo licencia MIT.
