💡 Resumen (TL;DR):
- DeepSeek revelará su nuevo modelo V4 esta semana, marcando el inicio de un sistema completamente multimodal.
- El algoritmo funciona con un billón de parámetros pero mantiene bajos costos, siendo seis veces más barato que GPT-5.2.
- La empresa priorizó la optimización para hardware de Huawei y Cambricon, dejando a un lado a gigantes de Estados Unidos como Nvidia y AMD.
El laboratorio chino DeepSeek presentará esta semana su modelo insignia V4, un sistema multimodal nativo estructurado con un billón de parámetros y diseñado desde su concepción para ejecutarse en procesadores fabricados en China. El anuncio coincide con la apertura de las reuniones parlamentarias conocidas como las “Dos Sesiones” este 4 de marzo, una estrategia clara para demostrar el avance de sus capacidades de inteligencia artificial a pesar de los bloqueos de exportación de hardware de Estados Unidos.
Dejando atrás la estructura enfocada únicamente en texto de su versión V3, este nuevo desarrollo procesa nativamente texto, imágenes y video. El sistema opera sobre una arquitectura Mixture-of-Experts que distribuye su billón de parámetros, pero solo activa cerca de 32 mil millones por token durante el proceso de inferencia para balancear potencia gráfica y consumo eléctrico.
Para manejar grandes volúmenes de datos de forma continua, el modelo introdujo una ventana de contexto de un millón de tokens. En este sentido, Engram conditional memory es una arquitectura de recuperación de datos desarrollada por DeepSeek que permite sostener esta memoria activa, dándole a V4 la capacidad de superar a competidores como OpenAI y Anthropic en benchmarks de programación de contexto largo.

Hardware asiático y tensión comercial
La decisión técnica más agresiva de DeepSeek fue excluir a los líderes occidentales. En lugar de adaptar su software a la tecnología dominante, la compañía con sede en Hangzhou negó el acceso preliminar a Nvidia y AMD. Esto otorgó a fabricantes chinos como Huawei y Cambricon una ventaja de varias semanas para afinar sus chips, asegurando que el rendimiento de inferencia de V4 sea muy superior en el mercado local desde el primer día.
- El Financial Times reportó el 28 de febrero el inminente lanzamiento, coincidiendo con las fechas clave del gobierno chino.
- Un funcionario de la administración Trump alegó recientemente que V4 fue entrenado con un clúster de chips avanzados Blackwell de Nvidia oculto en Mongolia Interior.
- Estas acciones representarían una violación a las sanciones de Washington, aunque la startup mantiene su “característico silencio operativo” respecto a las acusaciones.
DeepSeek liberará el V4 bajo una licencia open-source muy permisiva, calculando un costo operativo que equivale a una sexta parte del valor proyectado para GPT-5.2 de OpenAI. Con esta agresiva reducción de precios y su optimización para hardware no estadounidense, la empresa está lista para alterar la balanza de poder en el sector global del machine learning.