Samsung presenta el chip HBM4E y afianza alianza con Nvidia

Samsung presenta el chip HBM4E y afianza alianza con Nvidia

Samsung presentó el chip HBM4E en GTC 2026 y confirmó la fabricación del procesador Groq LP30 para Nvidia. Conoce las cifras.

Por Humberto Toledo el 17 marzo, 2026 a las 13:10

💡 Resumen (TL;DR):

  • Samsung reveló la memoria HBM4E con velocidades de 16 Gbps por pin durante el evento Nvidia GTC 2026.
  • Jensen Huang confirmó que la división de fundición de Samsung fabrica el chip de inferencia Groq LP30.
  • La surcoreana proyecta triplicar sus ingresos por módulos HBM este año tras recuperar terreno global.

Samsung Electronics presentó su chip de memoria de próxima generación HBM4E durante la conferencia Nvidia GTC 2026 en San José, California. El anuncio consolida la expansión de la alianza de hardware entre ambas empresas, la cual ahora abarca memoria avanzada, almacenamiento y fabricación de semiconductores de inteligencia artificial.

HBM4E es una memoria de alto ancho de banda de séptima generación que entrega velocidades de 16 gigabits por segundo (Gbps) por pin y un ancho total de 4.0 terabytes por segundo. Samsung planea enviar las primeras muestras este mismo año para alinearse con los calendarios de producción de sus clientes.

La compañía también exhibió su memoria de sexta generación HBM4, que ya está en producción masiva para la plataforma de IA Vera Rubin de Nvidia. La arquitectura ofrece las siguientes especificaciones técnicas:

  • Alcanza velocidades de procesamiento de 11.7 Gbps, superando ampliamente el estándar de la industria de 8 Gbps establecido por JEDEC.
  • Utiliza un proceso DRAM de clase de 10 nanómetros para garantizar rendimientos estables y eficiencia.
  • Se complementa con una línea de infraestructura que incluye módulos de memoria para servidores SOCAMM2 (los primeros en llegar a producción masiva) y unidades de estado sólido PM1763 basadas en PCIe 6.0, exhibidos en la exclusiva “Galería NVIDIA”.
Chip de memoria HBM de Samsung con flujos de datos de gran ancho de banda y velocidad.
Chip de memoria HBM de Samsung con flujos de datos de gran ancho de banda y velocidad.

El acuerdo por el Groq LP30 y el mercado multimillonario

La colaboración comercial superó la frontera de las memorias. Durante su presentación principal, el CEO de Nvidia, Jensen Huang, confirmó que la división de fundición de Samsung manufactura el chip de inferencia Groq LP30. Este hardware es una unidad de procesamiento de lenguaje de tercera generación, desarrollada con tecnología que Nvidia licenció de Groq por 20 mil millones de dólares a finales del año pasado.

Huang abordó el ritmo de fabricación de este procesador, programado para debutar en el tercer trimestre de 2026, y declaró sobre los equipos de Samsung que “están trabajando tan duro como pueden” en la producción para potenciar el rendimiento de inferencia de la plataforma Vera Rubin.

Estas revelaciones marcan el regreso agresivo de Samsung en la carrera del hardware tras quedar detrás de SK Hynix en generaciones pasadas. Datos de TrendForce proyectan que la participación global de producción HBM de Samsung escalará del 20% en 2025 al 28% en 2026.

Tanto Samsung como SK Hynix operan como proveedores confirmados de HBM4 para Vera Rubin, dejando a Micron fuera de la alineación de este ciclo. Como resultado directo, los ejecutivos surcoreanos estiman que sus ingresos por memorias de alto ancho de banda en 2026 se triplicarán en comparación con los niveles de 2025.

El impacto económico de estas tecnologías a corto plazo es masivo. Huang dimensionó la demanda futura del mercado al asegurar que prevé 1 billón de dólares en pedidos destinados exclusivamente a las plataformas Blackwell y Vera Rubin hasta 2027.

FUENTE

Más de Big Tech