Nube vs Nvidia: gigantes aceleran chips para abaratar la IA

Nube vs Nvidia: gigantes aceleran chips para abaratar la IA

Gigantes de la nube aceleran la producción de chips de IA propios para reducir costos de inferencia y desafiar el imperio de Nvidia.

Por Humberto Toledo el 22 marzo, 2026 a las 16:16

✨︎ Resumen (TL;DR):

  • Google, Amazon, Microsoft y Meta aceleran la producción de silicio personalizado para abandonar la dependencia de terceros en IA.
  • Broadcom proyecta dominar el 60% del mercado de diseño ASIC para servidores de IA en 2027 ante el boom de los hyperscalers.
  • Nvidia contraataca con la plataforma Vera Rubin y una inversión de 20,000 millones de dólares por la tecnología de inferencia Groq 3.

El dominio absoluto de Nvidia en el mercado de hardware para inteligencia artificial enfrenta un frente de batalla múltiple. Empresas como Google, Amazon, Microsoft y Meta están acelerando agresivamente la producción de procesadores propios para reducir costos y optimizar la inferencia de datos, un movimiento estratégico que busca quebrar la dependencia hacia las GPUs de terceros y redefinir la economía de los centros de datos.

Las empresas de la nube, conocidas en la industria como hyperscalers, buscan autonomía operativa. Google ya despliega su TPU de séptima generación, Ironwood, que entrega 4.6 petaflops de cómputo FP8 y escala en clústeres de 9,216 chips. Por su parte, Amazon inició a principios de 2026 la producción de su procesador Trainium 3, fabricado bajo el proceso de 3nm de TSMC. AWS afirma que este hardware logra una reducción de costos del 50% frente a las instancias equivalentes basadas en Nvidia.

Meta confirmó que lanzará cuatro nuevas generaciones de silicio durante los próximos dos años, mientras que Microsoft presentó formalmente su chip de inferencia Maia 200.

Detrás de esta maquinaria de producción en masa se encuentra Broadcom. Según estimaciones de Counterpoint Research, esta compañía controlará el 60% del mercado de diseño de ASIC (Circuitos Integrados de Aplicación Específica) para servidores de IA hacia 2027. La firma de investigación pronostica que los envíos de ASIC entre los diez principales hyperscalers se triplicarán entre 2024 y 2027.

Los ingresos por inteligencia artificial de Broadcom alcanzaron los 8,400 millones de dólares en el último trimestre, un salto del 106% interanual. El CEO de la compañía, Hock Tan, aseguró que sus ingresos por chips de IA podrían superar los 100,000 millones de dólares para 2027.

Nvidia enviará 1 millón de chips a AWS para 2027Te podría interesar:
Nvidia enviará 1 millón de chips a AWS para 2027
Ilustración editorial que muestra un símbolo de Nvidia en el centro, rodeado y presionado por estructuras que representan a sus competidores.
Ilustración editorial que muestra un símbolo de Nvidia en el centro, rodeado y presionado por estructuras que representan a sus competidores.

La contraofensiva de Nvidia y la guerra del software

Nvidia no cede terreno. Durante la conferencia GTC 2026 en San José, el CEO Jensen Huang presentó la plataforma Vera Rubin, diseñada para entregar hasta 10 veces más rendimiento de inferencia por vatio que su actual arquitectura Blackwell.

La verdadera carta fuerte del evento fue la revelación del procesador de inferencia Groq 3, fruto de un acuerdo de 20,000 millones de dólares para licenciar tecnología y absorber talento de la startup de chips Groq. Según Nvidia, el sistema combinado dispara el rendimiento 35 veces en el nivel de inferencia de mayor valor. Huang proyectó que los pedidos acumulados de esta tecnología entre 2025 y 2027 podrían alcanzar el billón de dólares (1 trillion USD).

  • El peso de la inferencia: La presión competitiva se concentra en la inferencia, fase que hoy consume cerca de dos tercios de todos los ciclos de cómputo de IA. En esta etapa, la economía de costo por token favorece al hardware especializado sobre las GPUs de propósito general.
  • Pérdida de mercado proyectada: Reportes de Reuters indican que diversos analistas esperan que Nvidia comience a perder cuota de mercado a partir de 2027, justo cuando los programas ASIC internos de la competencia operen a escala masiva.
  • Respaldo financiero: Los analistas de Rosenblatt Securities elevaron el precio objetivo de Nvidia argumentando que su dominio “full-stack”, que abarca software, redes NVLink y sistemas a escala de rack, la mantendrá líder en el sector.

El mayor escudo protector de Nvidia sigue siendo CUDA, su ecosistema de software propietario que agrupa a más de cinco millones de desarrolladores activos. Sin embargo, AMD recorta distancia con su plataforma de código abierto ROCm.

Simultáneamente, cada gigante de la nube construye su propio entorno para facilitar la fuga de clientes hacia su hardware nativo: Google impulsa XLA, Amazon desarrolla Neuron SDK y Microsoft afina su propia cadena de herramientas. Como documentó el medio especializado Business Insider al analizar el sector, el mercado de chips es hoy “un campo que se amplía rápidamente y se vuelve cada vez más enredado, incluso cuando Nvidia sigue a kilómetros de distancia”.

Fuentes: 1, 2, 3, 4, 5

+ Temas Relacionados

Más de Big Tech