✨︎ Resumen (TL;DR):
- Google presentó un algoritmo que reduce seis veces la necesidad de memoria en modelos de IA.
- El anuncio provocó caídas bursátiles en Samsung (-4.71%) y SK Hynix (-6.23%).
- Analistas financieros aseguran que el impacto real en la demanda de hardware será mínimo.
Google encendió las alarmas en el mercado de semiconductores tras presentar TurboQuant, un nuevo algoritmo capaz de reducir drásticamente los requisitos de hardware de los modelos de inteligencia artificial. El anuncio provocó una venta masiva en las acciones de los principales fabricantes asiáticos y estadounidenses, ante el temor de una posible reducción en la demanda de chips de memoria.
En la Bolsa de Corea, Samsung cerró con una caída de 4.71%, mientras que SK Hynix retrocedió 6.23%, arrastrando al índice Kospi a una baja del 3.22%. La tendencia negativa se originó en Wall Street, golpeando a empresas como Micron Technology (-3.4%), SanDisk (-3.5%), Western Digital y Seagate.
TurboQuant es un framework de cuantización que comprime los cachés clave-valor —la memoria de trabajo que usa la IA durante la inferencia— a solo 3 bits por valor.
Durante pruebas con GPUs Nvidia H100 y modelos de código abierto como Gemma y Mistral, el sistema aceleró ocho veces el procesamiento manteniendo la precisión exacta en ventanas de contexto de hasta 104,000 tokens. El documento técnico debutará en la conferencia ICLR 2026 en Río de Janeiro, del 23 al 27 de abril.
Matthew Prince, CEO de Cloudflare, calificó el avance como el “momento DeepSeek” de Google, en referencia al laboratorio chino que compite en rendimiento reduciendo drásticamente los costos de entrenamiento.

El impacto real en la industria del hardware
El pánico bursátil responde al miedo de que TurboQuant resuelva los cuellos de botella de memoria, frenando la demanda masiva de chips DRAM y HBM (High-Bandwidth Memory). Estos componentes llevaron a SK Hynix y Samsung a registrar ganancias récord durante 2025.
Sin embargo, firmas de análisis llamaron a la calma. “Las tecnologías que reducen el uso de memoria no son un factor que recorte la demanda; por el contrario, funcionarán para expandir la demanda general de memoria”, explicó Surim Lee, analista de DS Investment & Securities.
Han Ji-young, investigador de Kiwoom Securities, indicó que el anuncio sirvió como “un pretexto adicional para la toma de ganancias” tras el largo repunte de estas acciones en el mercado.
Expertos de TradingKey aclararon que TurboQuant comprime la memoria de inferencia y no los pesos del modelo. Esto afecta principalmente a la DRAM estándar y no a los chips HBM de alto rendimiento. Con los modelos de IA creciendo de manera exponencial, una compresión de seis veces terminará siendo marginal frente a los requerimientos brutos de la próxima generación de hardware.
