✨︎ Resumen (TL;DR):
- Los modelos de inteligencia artificial open-source desarrollados en China superaron la marca histórica de descargas globales.
- La familia Qwen de Alibaba y lanzamientos de DeepSeek concentran el 41% del mercado en Hugging Face, superando a EE. UU.
- La comisión USCC advierte que esta adopción masiva neutraliza los bloqueos de chips y amenaza el liderazgo tecnológico estadounidense.
Los modelos de inteligencia artificial open-source desarrollados en China superaron las 10 mil millones de descargas globales. El ecosistema asiático concentra ahora el 41% de las descargas de modelos de lenguaje grande (LLM) en la plataforma Hugging Face entre febrero de 2025 y febrero de 2026, rebasando el 36.5% correspondiente a Estados Unidos. Esta tracción responde a una estrategia abierta liderada por corporativos de tecnología que aceleran sus iteraciones a nivel internacional.
La familia de modelos Qwen de Alibaba encabeza este volumen operativo. Hasta marzo, Qwen registró casi mil millones de descargas y originó más de 113,000 modelos derivados, superando el volumen combinado de Google y Meta en la plataforma. Según un análisis de Interconnects AI, esta familia capturó más del 50% de las descargas globales.
El aumento de actividad despegó tras la publicación del R1 de DeepSeek en enero de 2025. Compañías como Baidu pasaron de cero registros en Hugging Face durante 2024 a más de 100 en 2025, mientras que ByteDance y Tencent multiplicaron su producción hasta nueve veces.

El impacto frente a las restricciones de hardware
La Comisión de Revisión Económica y de Seguridad Estados Unidos-China (USCC) advirtió en su reporte de marzo, titulado “Two Loops”, que el enfoque abierto de China crea una ventaja competitiva autosustentable. Los laboratorios asiáticos mantienen el desarrollo de frontera pese a los controles de exportación de chips de Estados Unidos.
El documento califica la adopción masiva de estos modelos de bajo costo como “el desafío a largo plazo más serio para el liderazgo en IA de EE. UU.”. En paralelo, la Academia China de Estudios del Ciberespacio citó cifras de la OMPI que confirman que el país asiático acumula el 60% de las patentes globales de IA.
La tendencia mantiene su curso. El 25 de abril, DeepSeek lanzó la vista previa de su modelo V4 en formato open-source, con un rendimiento que compite directo contra Claude Opus 4.6 de Anthropic, GPT-5.4 de OpenAI y Gemini 3.1 Pro de Google. Además, Hugging Face indicó que los desarrolladores independientes ya representan el 39% de todas las descargas, marcando una descentralización del ecosistema.
La firma de análisis Yage AI evaluó el reporte de la USCC y definió la nueva realidad del mercado tecnológico: “Todos están cambiando el enfoque de la competencia de ‘quién entrena el modelo más fuerte’ a ‘quién controla el despliegue y el uso'”.
