✨︎ Resumen (TL;DR):
- Jensen Huang reconoció públicamente que falló al no invertir a tiempo en Anthropic, cediendo terreno inicial a Google y Amazon.
- Nvidia ha destinado hasta $30 mil millones de dólares a OpenAI y $10 mil millones a Anthropic para asegurar su ecosistema.
- El directivo aseguró que ninguna plataforma supera el rendimiento por costo de sus GPUs frente a los chips personalizados rivales.
El CEO de Nvidia, Jensen Huang, rechazó categóricamente que los chips de IA personalizados de Google y Amazon representen una amenaza para el dominio de su compañía. Durante una entrevista en podcast con Dwarkesh Patel, el directivo admitió por primera vez que no invertir en Anthropic durante sus primeras etapas fue su responsabilidad, pero aseguró que superar la tecnología de Nvidia “no es tan fácil”.
Patel cuestionó a Huang sobre el hecho de que Claude y Gemini, dos de los modelos de IA más importantes del mundo, se entrenaron con las TPUs de Google en lugar del hardware de Nvidia.
Además, el anfitrión destacó el reciente acuerdo de capacidad de varios gigavatios que Anthropic firmó con Broadcom y Google.
La respuesta de Huang fue frontal: “Sin Anthropic, ¿por qué habría algún crecimiento de TPU? Es 100% Anthropic. Sin Anthropic, ¿por qué habría algún crecimiento de Trainium? Es 100% Anthropic”.
El ejecutivo calificó la dependencia de Anthropic hacia los chips rivales como un accidente histórico provocado por la inyección de miles de millones de dólares de Google y AWS, justo cuando Nvidia no estaba en posición de hacerlo.
“Un VC [firma de capital de riesgo] nunca invertiría entre $5 y $10 mil millones de dólares en un laboratorio de IA”, explicó Huang sobre el capital inicial. “No internalicé profundamente que realmente no tenían otras opciones”.

Computación acelerada frente a procesadores tensoriales
La computación acelerada es una arquitectura de procesamiento que descarga tareas de software específicas en hardware especializado para aumentar radicalmente la velocidad del sistema.
Huang trazó una línea clara entre esta tecnología y las unidades de procesamiento tensorial (TPU) de la competencia, a las que consideró más limitadas.
“Construimos algo muy diferente”, afirmó. “La computación acelerada se usa para todo tipo de cosas: dinámica molecular, cromodinámica cuántica, procesamiento de datos… También se usa para dinámica de fluidos y física de partículas. Además, la usamos para IA”.
Respaldado por el ecosistema de software CUDA y una base instalada de cientos de millones de GPUs en las principales nubes públicas, el líder tecnológico lanzó un reto a la industria.
“El stack de computación de Nvidia tiene el mejor rendimiento por TCO [Costo Total de Propiedad] en el mundo, sin excepción. Nadie puede demostrarme que exista una sola plataforma en el mundo de hoy que tenga una mejor relación rendimiento-TCO”, sentenció.
Huang subrayó que procesadores como TPU o Trainium no publican resultados en benchmarks de terceros, como MLPerf o InferenceMAX, para probar lo contrario.
En cuanto a su estrategia corporativa actual, la empresa registra inversiones de hasta $30 mil millones de dólares en OpenAI y $10 mil millones de dólares en Anthropic.
Estos movimientos no apuestan por un solo ganador, sino que expanden su ecosistema. Serán probablemente sus últimas rondas en ambas firmas antes de las salidas a bolsa anticipadas para finales de este año.
Al preguntarle por qué no inyectó capital antes para asegurar la exclusividad en la infraestructura de Anthropic, Huang concluyó con honestidad: “Lo hicimos tan pronto como pudimos… Si pudiera retroceder en el tiempo, habría estado más que feliz de hacerlo”.
