DeepSeek V4 Pro iguala a GPT-5.2 con un costo 17 veces menor

DeepSeek V4 Pro iguala a GPT-5.2 con un costo 17 veces menor

DeepSeek V4 Pro iguala el nivel de GPT-5.2 costando 17 veces menos. Conoce las especificaciones de este modelo open source.

Por Humberto Toledo el 5 mayo, 2026 a las 22:37 PDT

✨︎ Resumen (TL;DR):

  • El modelo open source DeepSeek V4 Pro quedó a solo 3% de igualar a GPT-5.2 en pruebas de simulación empresarial.
  • La inferencia cuesta $0.87 dólares por millón de tokens de salida, una ventaja masiva frente a los precios de OpenAI.
  • A pesar de su alta tasa de alucinación, su estructura de precios dominará los flujos de trabajo a gran escala.

El laboratorio chino DeepSeek lanzó este 24 de abril su modelo open source DeepSeek V4 Pro. La inteligencia artificial logró igualar el rendimiento de GPT-5.2 de OpenAI con un margen del 3% de diferencia en la prueba FoodTruck Bench, operando con un costo 17 veces menor.

Los resultados ubican a la nueva IA en el cuarto lugar global de esta evaluación independiente. El modelo superó pruebas de simulación empresarial y quedó solo por detrás de Claude Opus 4.6, GPT-5.2 y Grok 4.3.

El atractivo principal de este lanzamiento radica en su esquema comercial. Mientras GPT-5.2 cobra $1.75 dólares por cada millón de tokens de entrada y $14 dólares por los de salida, DeepSeek V4 Pro factura $0.435 y $0.87 dólares respectivamente.

Esta diferencia genera una ventaja financiera indiscutible para empresas que dependen de grandes tareas de generación automática.

DeepSeek V4 dispara la venta de chips IA de Huawei
Te podría interesar:
DeepSeek V4 dispara la venta de chips IA de Huawei
Fotos de stock gratuitas de acuático, agua abierta, agua clara
Foto: Emma Li / Pexels

Arquitectura técnica y pruebas de rendimiento

DeepSeek V4 Pro funciona bajo un sistema Mixture-of-Experts de 1.6 billones de parámetros que activa solamente 49 mil millones por token. Esta arquitectura permite una relación de compresión de 30:1 entre parámetros totales y activos.

El modelo cuenta con las siguientes características técnicas:

  • Atención híbrida: Combina mecanismos de Compressed Sparse Attention y Heavily Compressed Attention.
  • Eficiencia: Requiere únicamente el 27% de los FLOPs de inferencia frente a DeepSeek V3.2 con contexto de un millón de tokens y utiliza solo el 10% de la caché KV.
  • Disponibilidad abierta: El código opera bajo licencia MIT y los desarrolladores pueden descargarlo en Hugging Face.

Las evaluaciones independientes detectaron contrastes operativos. La organización CAISI determinó que el rendimiento real de V4 Pro se alinea más con el GPT-5 original lanzado hace ocho meses.

Por su parte, el análisis AA-Omniscience detectó una tasa de alucinación del 94%. El sistema prefiere inventar una respuesta en lugar de abstenerse cuando carece del conocimiento necesario.

DeepSeek emitió un comunicado donde reconoce que su modelo V4 “se queda marginalmente corto” frente a los principales sistemas cerrados debido a una brecha de entre tres y seis meses de desarrollo.

A pesar de las críticas técnicas, el desarrollador Simon Willison confirmó que V4 Pro desplazó a Kimi K2.6 de 1.1 billones de parámetros para convertirse en el modelo de pesos abiertos más grande de la actualidad.

Con seis proveedores de API ofreciendo tarifas desde $0.145 dólares para tokens en caché, la empresa china tiene el camino libre para absorber a los clientes corporativos que necesitan escalar sus sistemas sin agotar presupuestos.

Fuentes: 1, 2, 3, 4

+ Temas Relacionados

Más de AI

Feed