💡 Resumen (TL;DR):
- La fiebre por la infraestructura de inteligencia artificial mantendrá agotados los inventarios de semiconductores globales.
- Samsung reportó ganancias operativas récord de $13,800 millones de dólares impulsadas por este sector.
- La transición hacia chips de IA provocará escasez y aumento de precios en computadoras y smartphones.
Samsung Electronics confirmó que la fiebre mundial por la inteligencia artificial mantendrá una alta demanda de semiconductores hasta 2026. Durante su 57.ª asamblea anual de accionistas en Suwon, la compañía advirtió que los altos costos de la memoria amenazan el volumen de envíos globales de computadoras y celulares.
Jun Young-hyun, vicepresidente y co-CEO de la división de chips, presentó estas proyecciones tras alcanzar una ganancia operativa récord de 20 billones de wones ($13,800 millones de dólares) en el cuarto trimestre de 2025. La cifra representa un incremento del triple frente al mismo periodo del año anterior.
TM Roh, co-CEO de la empresa, calificó la escasez actual de componentes como “sin precedentes” y advirtió que un impacto directo en la división de smartphones es “inevitable”. Analistas de la firma KB Securities estiman que la producción de memoria de Samsung hasta 2027 está prácticamente agotada, forzando a las grandes tecnológicas a negociar acuerdos de suministro de cinco años.

Una estructura negra monolítica y elegante representa un chip de memoria de alto rendimiento, simbolizando el auge de la IA en la tecnología de semiconductores de Samsung.
El factor Nvidia y la memoria HBM4
La arquitectura que sostiene este crecimiento de hardware quedó demostrada en la GPU Technology Conference de San Jose. Allí, la surcoreana exhibió su hardware de nueva generación para centros de datos de IA.
- Presentó la memoria HBM4 de sexta generación, diseñada específicamente para la plataforma Vera Rubin de Nvidia.
- Alcanza velocidades de 11.7 gigabits por segundo (Gbps), superando ampliamente el estándar industrial de 8 Gbps, con potencial técnico para escalar a 13 Gbps.
- Revelaron de forma anticipada el modelo HBM4E, capaz de operar a 16 Gbps.
Jensen Huang, CEO de Nvidia, confirmó que Samsung fabrica uno de sus nuevos chips de inferencia de IA, el Groq LP30. “Están trabajando tan duro como pueden”, aseguró Huang al detallar que los componentes ya están en producción masiva y se enviarán en el tercer trimestre.
La transición del mercado obligó a fabricantes como Samsung, SK Hynix y Micron a priorizar los rentables chips HBM, creando un vacío en la producción de memorias DRAM convencionales. Este movimiento estratégico, que impulsó las acciones de la compañía un 2.8% tras el anuncio, redefine las prioridades de fabricación a costa de la electrónica de consumo tradicional.