💡 Resumen (TL;DR):
- Alphabet y Nvidia revelaron máquinas virtuales fraccionadas para dividir y optimizar el uso de GPUs empresariales.
- A partir de la segunda mitad de 2026, integrarán el sistema Vera Rubin con 72 GPUs y 36 CPUs en un solo rack.
- La alianza estrena integraciones de software para acelerar modelos de lenguaje y lanza una aceleradora de startups.
Durante la conferencia GTC 2026 en San José, California, Alphabet y Nvidia anunciaron una expansión masiva de su infraestructura de inteligencia artificial. El acuerdo estrena nuevas configuraciones de hardware, software y una hoja de ruta enfocada en ejecutar cargas de trabajo de IA agéntica en entornos corporativos.
El anuncio principal es la llegada de las máquinas virtuales (VM) G4 fraccionadas. Esta tecnología de virtualización divide la potencia de la GPU Nvidia RTX Pro 6000 Blackwell Server Edition en fracciones de un medio, un cuarto y un octavo, algo inédito en la industria para esta clase de hardware.
Las GPUs fraccionadas son un modelo de consumo en la nube que permite a las empresas pagar exclusivamente por la capacidad de procesamiento que necesitan. Los clientes pueden usar un octavo de la tarjeta para escritorios remotos ligeros, o reservar la mitad para inferencia de modelos de lenguaje (LLM) y simulación robótica.
“Las empresas necesitan una flexibilidad sin precedentes para escalar cargas de trabajo de IA agénticas y complejas”, declaró Ian Buck, vicepresidente y gerente general de Hyperscale y HPC de Nvidia. “Junto con nuestra pila de ingeniería conjunta, desde NVIDIA NeMo en Vertex AI hasta NVIDIA Dynamo con GKE, estamos entregando una plataforma abierta y de alto rendimiento para el razonamiento de próxima generación y modelos MoE”.

El debut de Vera Rubin NVL72 y nuevos modelos abiertos
Google Cloud confirmó que será de los primeros proveedores en ofrecer el sistema de rack Vera Rubin NVL72 durante la segunda mitad de 2026. Esta plataforma, revelada originalmente en CES 2026, combina 72 GPUs Rubin y 36 CPUs Vera en un solo equipo diseñado para el entrenamiento masivo de IA.
A nivel de software, las compañías lograron los siguientes avances:
* Integración de Nvidia Dynamo con GKE Inference Gateway para crear un plano de control de código abierto que acelere los modelos de IA.
* Soporte expandido de clústeres de entrenamiento Vertex AI para máquinas virtuales A4X corriendo en el Nvidia GB200 NVL72, con detección proactiva de fallas de hardware.
* Integración de la familia de modelos abiertos Nemotron 3 de Nvidia en Vertex AI Model Garden, incluyendo el gigantesco Nemotron 3 Super de 120 mil millones de parámetros.
Las actuales máquinas virtuales G4 a tamaño completo, disponibles desde octubre de 2025, ya operan en empresas como General Motors, ElevenLabs y Schrödinger. Silvio Savarese, científico jefe de Salesforce, confirmó que usan Vertex AI en clústeres sobre hardware GB200 NVL72 para potenciar su Agentforce 360 Platform, calificando el equipo como “un nuevo estándar para la empresa agéntica”.
El anuncio se da en el marco del discurso de apertura de Jensen Huang, CEO de Nvidia, donde declaró a los tokens como “el nuevo commodity”. Para cerrar la estrategia conjunta, Google Cloud y Nvidia lanzarán un programa de aceleración de startups de IA enfocadas en el sector público por un año, dándoles acceso directo a los recursos de Nvidia Inception y Google Cloud ISV.