CoreWeave activa instancias en la nube con NVIDIA HGX B300

CoreWeave activa instancias en la nube con NVIDIA HGX B300

CoreWeave lanza en su nube instancias con NVIDIA HGX B300, optimizando el entrenamiento de IA y agentes autónomos.

Por Humberto Toledo el 16 marzo, 2026 a las 18:54

💡 Resumen (TL;DR):

  • CoreWeave integró el nuevo hardware NVIDIA HGX B300 a su plataforma cloud de inteligencia artificial.
  • Los nodos ofrecen 2.1 terabytes de memoria, lo que representa un aumento de capacidad del 50% frente a la generación previa.
  • La integración de software Weights & Biases reduce hasta un 40% los costos operativos del entrenamiento de agentes autónomos.

Durante la conferencia GTC 2026 en San José, California, CoreWeave anunció la disponibilidad general de las instancias NVIDIA HGX B300 en su plataforma de nube. Este movimiento estratégico expande su infraestructura para soportar las cargas de trabajo más intensas de inteligencia artificial y aprendizaje por refuerzo.

El hardware forma parte de la plataforma Blackwell Ultra de NVIDIA. Cada nodo integra 2.1 terabytes de memoria HBM3e, lo que representa un incremento del 50% respecto al modelo anterior HGX B200. Esta capacidad permite a los equipos de desarrollo ejecutar inferencia de contexto largo y entrenar modelos que superan los 100 mil millones de parámetros en un solo nodo.

Para evitar el estrangulamiento térmico, todos los servidores cuentan con refrigeración líquida. Además, la infraestructura utiliza redes InfiniBand Quantum-X800XDR para duplicar el ancho de banda en la comunicación entre nodos.

“La era de la IA está pasando del entrenamiento de modelos a la operación de agentes a escala”, declaró Jensen Huang, fundador y CEO de NVIDIA. “CoreWeave es una nube nativa de IA de nueva generación de clase mundial. Estamos encantados de asociarnos con ellos para construir la infraestructura informática de NVIDIA para impulsar la IA del mundo”.

Unidad de computación en la nube para IA con refrigeración líquida y flujos de datos abstractos.
Unidad de computación en la nube para IA con refrigeración líquida y flujos de datos abstractos.

Hardware masivo optimizado por software MLOps

El despliegue físico de los servidores llegó acompañado de nuevas herramientas de software cortesía de Weights & Biases, la plataforma MLOps que CoreWeave adquirió en 2025.

La compañía introdujo un sistema de aprendizaje por refuerzo “libre de entorno”. Esta solución elimina la dependencia de simuladores costosos y permite que los agentes de IA aprendan mediante interacción continua en el mundo real. CoreWeave afirma que este método logra un entrenamiento 1.4 veces más rápido con costos hasta 40% menores en comparación con los clústeres autogestionados.

El ecosistema de herramientas incluye:
* Evaluaciones de agentes en producción mediante W&B Weave, usando LLMs para calificar flujos de datos y derivar resultados de baja calidad a revisión humana.
* Una aplicación nativa para iOS que permite a los investigadores monitorear los entrenamientos desde su celular en tiempo real.

“Al combinar el poder de cómputo masivo del hardware más reciente de NVIDIA con los servicios en la nube de CoreWeave, estamos permitiendo a las empresas construir y refinar agentes autónomos de manera más rápida y confiable que nunca”, explicó Michael Intrator, CEO de CoreWeave.

Stephen Sopko, analista en HyperFrame Research, detalló a Data Center Knowledge que el 30% de las organizaciones ya alcanzó la implementación de IA a gran escala durante el primer trimestre, y el 64% espera lograrlo en un plazo de seis meses. “Esa es la ola de demanda que CoreWeave se está posicionando para capturar”, concluyó el especialista. Anticipándose a este volumen, el proveedor en la nube confirmó que desplegará la próxima plataforma Vera Rubin NVL72 de NVIDIA durante la segunda mitad de 2026.

FUENTE

Contenido recomendado