DeepSeek desploma precios de su API y reta a OpenAI

DeepSeek desploma precios de su API y reta a OpenAI

DeepSeek recorta los precios de su API V4-Pro en un 75% y reduce los costos de caché a una décima parte, desafiando a OpenAI.

Por Humberto Toledo el 26 abril, 2026 a las 21:50 PDT

✨︎ Resumen (TL;DR):

  • DeepSeek redujo el costo de impacto en caché de su API a una décima parte y activó un descuento del 75% para su modelo V4-Pro.
  • La tarifa promocional cae a 0.025 yuanes ($0.0036 dólares) por millón de tokens, costo hasta 98% menor frente a OpenAI.
  • El sistema opera en hardware de Huawei, rompiendo la dependencia técnica de la industria global hacia los chips de Nvidia.

El laboratorio chino DeepSeek anunció recortes masivos en las tarifas de su servicio API, reduciendo el costo de entrada en caché a una décima parte de su valor original. La empresa lanzó un descuento del 75% para su modelo insignia V4-Pro válido hasta el 5 de mayo, intensificando la guerra de precios en la industria de la inteligencia artificial.

Con esta estrategia, el precio de entrada en caché del V4-Pro baja a solo 0.025 yuanes (aproximadamente $0.0036 dólares) por millón de tokens. Durante este periodo promocional, las tarifas estándar de entrada y salida se fijan en 3 y 6 yuanes respectivamente.

Estas cifras marcan una diferencia abismal frente a sus rivales occidentales. Datos de OpenRouter citados por el medio financiero Gelonghui indican que los modelos de la serie Claude Opus de Anthropic, el GPT-5.4 de OpenAI y Gemini 3.1 Pro de Google cobran entre $12 y $25 dólares por millón de tokens de salida.

“En el contexto de un aumento general de los costos de poder de cómputo en la industria de la IA este año, DeepSeek V4 ha implementado nuevamente por completo el concepto de ‘reducción de precios de IA'”, reportó Gelonghui.

Incluso antes del descuento temporal, las tarifas base del V4-Pro ($1.74 de entrada y $3.48 de salida) ya eran una fracción mínima del mercado. Yahoo Tech calculó que la opción china es un 98% más económica que el modelo GPT-5.5 Pro de OpenAI.

MiniMax libera su IA M2.7 y agita la competencia tech en China
Te podría interesar:
MiniMax libera su IA M2.7 y agita la competencia tech en China
Fotos de stock gratuitas de 4k, acantilado, acuático
Foto: Kindel Media / Pexels

Independencia técnica y arquitectura de hardware

DeepSeek presentó las versiones de prueba V4-Pro y V4-Flash el pasado 24 de abril. Fue el primer lanzamiento mayor de la startup basada en Hangzhou desde la salida del V3.2 en diciembre pasado.

La variante Pro incluye 1.6 billones de parámetros totales (49 mil millones activos por inferencia), coronándose como el modelo de pesos abiertos más grande disponible en la actualidad. Por su parte, la versión Flash opera con 284 mil millones de parámetros.

Un detalle técnico crucial es que el sistema funciona con procesadores Huawei Ascend en lugar de hardware de Nvidia.

Wei Sun, analista principal de IA en Counterpoint Research, declaró a CNN que esta decisión arquitectónica “permite el desarrollo y despliegue de sistemas de IA sin depender exclusivamente de Nvidia”, acelerando el progreso comercial a nivel internacional.

En términos operativos, el V4-Pro requiere únicamente el 27% del poder de cómputo que exigía el V3.2 para manejar una ventana de contexto de un millón de tokens, según documentó el MIT Technology Review.

La propia startup reconoció en su reporte técnico que el rendimiento bruto de su modelo “se queda marginalmente corto frente a GPT-5.4 y Gemini 3.1 Pro”, estimando un rezago temporal de entre tres y seis meses frente a la competencia occidental.

Fuentes: 1, 2, 3, 4, 5

Más de AI

Feed