💡 Resumen (TL;DR):
- Meta acordó desplegar 6 gigavatios de procesamiento con tarjetas AMD Instinct para su infraestructura de inteligencia artificial.
- El contrato otorga a Meta opciones de compra por hasta 160 millones de acciones comunes, equivalentes al 10% de AMD.
- La estrategia permite a la compañía diversificar su suministro de hardware para no depender exclusivamente de Nvidia.
Meta Platforms y AMD anunciaron este martes un acuerdo multianual y multigeneracional para desplegar 6 gigavatios de GPUs AMD Instinct en la infraestructura de inteligencia artificial de Meta. El objetivo principal de este trato es diversificar la cadena de suministro de cómputo de la empresa y reducir su dependencia de Nvidia, compañía con la que cerró un pacto masivo apenas una semana antes.
Este movimiento podría generar decenas de miles de millones de dólares en ingresos para el fabricante de procesadores y altera la competencia en el mercado de hardware para IA.
Como parte de la negociación, AMD otorgó a Meta un derecho de compra basado en rendimiento por hasta 160 millones de acciones comunes. Esta cifra representa aproximadamente el 10% de la compañía.
Las opciones sobre estas acciones se liberarán conforme ambas corporaciones alcancen metas de envío y crucen umbrales de precio en la bolsa de valores. Los despachos para dar soporte al primer gigavatio de capacidad comenzarán en la segunda mitad de 2026.
“Estamos orgullosos de expandir nuestra asociación estratégica con Meta a medida que empujan los límites de la IA a una escala sin precedentes”, declaró la CEO de AMD, Lisa Su.
Por su parte, el CEO de Meta, Mark Zuckerberg, definió el acuerdo como “un paso importante para Meta a medida que diversificamos nuestro cómputo”, y añadió que espera que AMD “sea un socio importante durante muchos años”.
Jean Hu, CFO de AMD, detalló que se espera que la asociación logre “impulsar un crecimiento sustancial de los ingresos de varios años y ser acumulativa para nuestras ganancias por acción no GAAP”.

Hardware personalizado para la superinteligencia
El despliegue utilizará componentes de próxima generación para soportar las cargas de trabajo extremo. Las especificaciones técnicas incluyen:
- GPUs personalizadas AMD Instinct basadas en la arquitectura MI450.
- CPUs AMD EPYC de sexta generación con el nombre código “Venice”.
- Software de ejecución nativa ROCm.
- Procesadores futuros EPYC “Verano”, diseñados con optimizaciones para tareas específicas, donde Meta será el cliente principal.
Toda esta tecnología funcionará sobre la arquitectura física de AMD. AMD Helios es un sistema a escala de rack que aloja y conecta los clústeres de servidores. Este diseño fue codesarrollado por AMD y Meta a través del Open Compute Project.
La estructura del trato es idéntica al acuerdo histórico que AMD cerró con OpenAI en octubre de 2025. Ese pacto también contempló 6 gigavatios de GPUs Instinct y el paquete de opciones accionarias, lo que según Reuters podría generar más de 100,000 millones de dólares a AMD en cuatro años por la demanda en cascada.
Zuckerberg anticipó planes para invertir hasta 135,000 millones de dólares en infraestructura tecnológica durante 2026, con el objetivo de ofrecer una “superinteligencia personal” a sus usuarios a nivel mundial. Para lograrlo, la compañía también pactó la compra de millones de GPUs Blackwell y la próxima generación Vera Rubin de Nvidia.
Los analistas calculan que cada gigavatio de capacidad de IA de AMD se traduce en aproximadamente 20,000 millones de dólares en demanda de chips. A pesar de estas masivas proyecciones de capital, las acciones de AMD cotizaron a la baja en la sesión previa a la apertura del mercado del martes, mientras que Meta también registró caídas iniciales.
Asegurar a uno de los mayores compradores de infraestructura del mundo como cliente ancla valida la hoja de ruta técnica de AMD para los centros de datos. Este tipo de contratos masivos demuestra que los gigantes tecnológicos prefieren invertir agresivamente en múltiples proveedores de hardware antes que arriesgar el desarrollo de sus modelos de machine learning por falta de componentes.