💡 Resumen (TL;DR):
- Samsung inició la producción masiva del procesador de inferencia Groq 3 de Nvidia con su nodo de 4 nanómetros.
- La tecnología es fruto de un acuerdo por $20 mil millones de dólares e impulsó el salto de producción a 15,000 obleas.
- Nvidia asegura su dominio frente a competidores en la nube con proyecciones de $1 billón de dólares en ingresos.
Durante la conferencia de desarrolladores GTC 2026, Jensen Huang confirmó que Samsung Electronics ya fabrica en masa el procesador de inferencia de IA Groq 3 utilizando su proceso avanzado de 4 nanómetros. Este movimiento estratégico asegura a la división de fundición de Samsung como un pilar en el mercado de hardware para inteligencia artificial.
Frente a más de 18,000 asistentes en el SAP Center de San José, California, el CEO de Nvidia comparó la integración de Groq con la histórica compra de Mellanox en 2019. El chip nace de un acuerdo de licencias por casi $20 mil millones de dólares firmado en Nochebuena, donde Nvidia absorbió la tecnología central de la startup y reclutó a su fundador, Jonathan Ross.
El Groq 3 LPU es un procesador de lenguaje (Language Processing Unit) que utiliza memoria SRAM integrada en el chip en lugar de la memoria tradicional de alto ancho de banda. Esta arquitectura permite velocidades de transferencia de datos superiores y mayor eficiencia energética en cargas de trabajo de inferencia.
Nvidia planea implementar estos procesadores en bastidores de inferencia LPX equipados con 256 unidades LPU y 128GB de SRAM, los cuales estarán disponibles para la segunda mitad de 2026. Por su parte, Amazon Web Services anunció que integrará el Groq 3 junto con más de un millón de GPUs Nvidia como parte de una alianza de infraestructura.
La maquinaria de fundición de Samsung al límite
Para satisfacer la demanda comercial a gran escala, la división de fundición de Samsung incrementó la capacidad de producción para los chips de Groq, pasando de 9,000 obleas en fase de muestra a cerca de 15,000 obleas actuales.
Además de este contrato clave, Samsung aprovechó GTC para exhibir su arsenal tecnológico de memoria:
- HBM4E: Memoria de séptima generación capaz de alcanzar 16 gigabits por segundo por pin y 4 terabytes por segundo de ancho de banda.
- HBM4: La sexta generación de la compañía, actualmente en producción masiva para la plataforma de IA Vera Rubin de Nvidia.
- Módulos de memoria para servidores SOCAMM2 y almacenamiento SSD PCIe Gen6.
Una fuente de Samsung declaró al diario Chosun Ilbo que son “la única empresa que puede proporcionar una solución total conectando y suministrando múltiples componentes clave dentro de un servidor de IA”.
Con gigantes de la nube como Google y Amazon desarrollando sus propios chips personalizados, la competencia en inferencia artificial es frontal. Sin embargo, Jensen Huang mantiene el control del mercado y proyecta al menos $1 billón de dólares en ingresos acumulados por chips de IA entre 2025 y 2027.