✨︎ Resumen (TL;DR):
- Google arma una cadena con Broadcom, MediaTek, Intel y Marvell para reducir su dependencia de las GPUs de Nvidia.
- La estrategia cubre desde el chip Ironwood actual, hasta procesadores de 2 nanómetros para 2027.
- Meta y Anthropic validan la ofensiva alquilando TPUs e infraestructura valorada en miles de millones de dólares.
Alphabet ensambló la cadena de suministro de chips personalizados más diversificada en la industria de la inteligencia artificial. Con cuatro socios de diseño estructurales y el respaldo de fabricación de TSMC, Google busca reducir drásticamente su dependencia tecnológica de las GPUs de Nvidia para sostener sus centros de datos y servicios cloud.
La ofensiva quedará al descubierto durante el Google Cloud Next, programado del 22 al 24 de abril en Las Vegas, donde la empresa presentará su nueva generación de unidades de procesamiento tensorial (TPU).
El pilar actual es Ironwood, la séptima generación de TPU de Google y la primera diseñada específicamente para tareas de inferencia. La compañía producirá millones de unidades este año, de las cuales la startup Anthropic ya apartó hasta un millón.
Para afianzar su hardware futuro, Google cerró múltiples acuerdos. El 6 de abril firmó un pacto con Broadcom válido hasta 2031 para diseñar componentes de red y chips de alto rendimiento. Esta firma ya desarrolla el chip de entrenamiento TPU v8, bajo el código “Sunfish”, basado en el proceso de 2 nanómetros de TSMC.
MediaTek diseña una versión más económica del TPU v8 enfocada en inferencia, apodada “Zebrafish”, también en la litografía de 2nm para finales de 2027. Intel entró a la ecuación el 9 de abril con un contrato multianual para proveer procesadores Xeon en la capa de red, mientras que Marvell Technology negocia fabricar unidades de procesamiento de memoria.
Todas las piezas de silicio terminan en las fundiciones de TSMC. A diferencia de comprar componentes comerciales estándar, Google retiene el control total sobre la arquitectura mientras delega la implementación técnica a sus aliados.

El costo de la IA y el respaldo del mercado
El enfoque actual prioriza la inferencia, el proceso de ejecutar modelos de IA ya entrenados, que hoy representa el mayor gasto informático en despliegues a gran escala.
Jeff Dean, científico jefe de Google, explicó a Bloomberg que el aumento acelerado en la demanda de inferencia hace que sea “sensato especializar más los chips para entrenamiento” frente a las unidades de inferencia.
Los grandes competidores ya respaldan financieramente el silicio propietario de Alphabet:
- Meta cerró un acuerdo multianual por miles de millones de dólares para alquilar los TPUs de Google.
- Anthropic aseguró cerca de 3.5 gigawatts de capacidad de cómputo basada en TPUs de próxima generación mediante Broadcom, iniciando en 2027.
Amin Vahdat, ejecutivo que supervisa la infraestructura de IA y hardware en Google, aseguró que surgirán más detalles “en un futuro relativamente cercano”.
