💡 Resumen (TL;DR):
- Nvidia anunció hardware especializado para procesar inteligencia artificial de nivel data center directamente en el espacio.
- El módulo Space-1 Vera Rubin ofrece hasta 25 veces más capacidad de cálculo que una GPU H100.
- Seis compañías ya prueban estos sistemas para construir centros de datos en órbita y analizar información sin depender de la Tierra.
Durante la conferencia GTC 2026 en San José, California, Nvidia presentó una nueva línea de hardware diseñada para ejecutar cargas de trabajo de inteligencia artificial directamente en plataformas orbitales.
El Space-1 Vera Rubin Module es un hardware especializado que procesa flujos de datos masivos y ejecuta modelos de lenguaje en el espacio. El equipo integra una arquitectura de CPU con conectividad de alto ancho de banda, diseñada para soportar las restricciones de tamaño, peso y energía de una nave espacial.
Según datos de la compañía, este módulo entrega hasta 25 veces el rendimiento de cómputo de inteligencia artificial que ofrece la GPU H100 para tareas de inferencia espacial.
“La computación espacial, la frontera final, ha llegado”, declaró el CEO Jensen Huang durante su presentación clave. “A medida que desplegamos constelaciones de satélites y exploramos más profundamente en el espacio, la inteligencia debe vivir donde se generan los datos”.
Nvidia también confirmó que las plataformas IGX Thor y Jetson Orin ya están disponibles para inferencia de IA en el edge a bordo de satélites. En la Tierra, su GPU RTX PRO 6000 Blackwell Server Edition ofrece un procesamiento de inteligencia geoespacial hasta 100 veces más rápido que los sistemas basados en CPU tradicionales.
Data centers en órbita: el próximo paso del hardware
Actualmente, seis empresas ya integran estas plataformas de computación espacial en sus proyectos: Aetherflux, Axiom Space, Kepler Communications, Planet Labs, Sophia Space y Starcloud.
Kepler Communications utiliza Jetson Orin en su constelación de satélites para gestionar datos automatizados. Por su parte, Starcloud diseña centros de datos orbitales para proporcionar infraestructura cloud y de IA directamente fuera de la Tierra.
“Con Nvidia, podemos llevar verdadera computación de IA de clase hiperescala a la órbita — procesando datos en la fuente, reduciendo la dependencia de enlace descendente y permitiendo a los clientes ejecutar cargas de trabajo de entrenamiento e inferencia en el espacio por primera vez”, explicó Philip Johnston, CEO de Starcloud.
Como antecedente, Starcloud lanzó con éxito un satélite de prueba equipado con una GPU Nvidia H100 en noviembre de 2025.
El anuncio responde a la alta demanda de procesamiento de datos en tiempo real fuera de la Tierra, un sector donde compañías como SpaceX también planean infraestructura computacional a gran escala. Sin embargo, el CEO de Nvidia reconoció que la industria aún enfrenta un desafío técnico severo: lograr enfriar los chips de IA en el vacío del espacio.