✨︎ Resumen (TL;DR):
- Google Cloud anunció Virgo Network, un sistema diseñado para conectar infraestructura masiva enfocada en Inteligencia Artificial.
- La arquitectura permite enlazar más de un millón de chips TPU a través de múltiples centros de datos para entrenamiento.
- Gracias a una topología de dos capas, reduce la latencia en un 40 % y previene fallas masivas del sistema en milisegundos.
Durante la conferencia anual Cloud Next 2026 en Las Vegas, Google Cloud presentó Virgo Network, una arquitectura de red diseñada específicamente para conectar cientos de miles de aceleradores de IA en un único dominio de cómputo. La compañía busca implementar un modelo de “campus como computadora”, diseñado a la medida para soportar las brutales demandas de entrenamiento de los modelos de frontera.
El sistema divide la red de los centros de datos en tres capas independientes. La primera gestiona la comunicación dentro de un mismo módulo. La segunda es una estructura dedicada al tráfico entre aceleradores, y la tercera conecta todo con la red Jupiter de Google para acceder a almacenamiento y cómputo general. Esto permite actualizar el hardware por separado sin interrumpir las operaciones.
Virgo Network es un sistema de conectividad que utiliza switches de alta base organizados en una topología plana de dos capas sin bloqueo. Google asegura que esto reduce la latencia al recortar niveles en la red. Además, un diseño de múltiples planos aísla las fallas para evitar que un error de hardware colapse todo el clúster.

Escalabilidad extrema para el machine learning
Las cifras expuestas por Google muestran la escala real de la nueva guerra tecnológica. Con sus nuevos chips TPU 8t, la red enlaza 134,000 procesadores con hasta 47 petabits por segundo de ancho de banda biseccional en un solo centro de datos. Al sumar varias instalaciones, esa cifra escala a más de un millón de TPUs conectados.
Para configuraciones con GPUs de Nvidia, el sistema soporta hasta 80,000 unidades en un solo sitio y un tope de 960,000 GPUs distribuidas geográficamente.
Esta arquitectura entrega cuatro veces más ancho de banda por acelerador frente a la generación anterior y un 40 % menos de latencia de tejido descargado para los TPUs. El software integrado cuenta con telemetría que detecta en menos de un milisegundo a los nodos que dejan de responder, protegiendo las cargas de trabajo.
Durante el evento en el Mandalay Bay, la empresa también lanzó sus chips de octava generación: TPU 8t para entrenamiento y TPU 8i para inferencia, junto con la tecnología de almacenamiento Managed Lustre, capaz de procesar 10 terabytes por segundo.
“La era de la IA requiere un replanteamiento fundamental de la arquitectura física de la nube —la red, en particular”, declaró Google en su blog técnico. El crecimiento explosivo de los parámetros de IA exige abandonar las redes tradicionales, incapaces de manejar las ráfagas de tráfico sincronizado que requiere el desarrollo tecnológico actual.
