Nvidia lanza Nemotron 3 Super para agentes autónomos

Nvidia lanza Nemotron 3 Super para agentes autónomos

Nvidia lanza Nemotron 3 Super, un modelo de IA de pesos abiertos con 120 mil millones de parámetros diseñado para sistemas autónomos.

Por Humberto Toledo el 11 marzo, 2026 a las 20:46

💡 Resumen (TL;DR):

  • Nvidia liberó un modelo de IA con 120 mil millones de parámetros optimizado para plataformas Blackwell.
  • Activa 12 mil millones de parámetros por token, logrando un rendimiento 5 veces mayor a su versión anterior.
  • La estrategia busca mantener a los desarrolladores en el hardware de Nvidia frente a la competencia asiática.

Nvidia presentó este martes Nemotron 3 Super, un modelo de inteligencia artificial de pesos abiertos con 120 mil millones de parámetros diseñado para sistemas autónomos multiagente. Este lanzamiento marca un paso crítico en la estrategia de la compañía para dominar la infraestructura que impulsa la transición de simples chatbots a una IA agéntica.

El sistema utiliza una arquitectura híbrida Mamba-Transformer de mezcla de expertos. Aunque posee gran capacidad, el modelo activa solo 12 mil millones de parámetros por token. Esto le permite entregar hasta cinco veces mayor rendimiento y el doble de precisión que la versión previa.

Cuenta con una ventana de contexto de un millón de tokens y corre sobre la plataforma Blackwell usando precisión NVFP4. Según el fabricante, esta configuración reduce los requisitos de memoria y acelera la inferencia hasta cuatro veces en comparación con el estándar FP8 de los sistemas Hopper.

Nvidia lanza Nemotron 3 Super para agentes autónomos

Ecosistema abierto y rendimiento técnico

La firma independiente Artificial Analysis otorgó 36 puntos al modelo en su Índice de Inteligencia, superando por 17 puntos a la versión anterior. Los evaluadores concluyeron que es “por mucho, el modelo más inteligente jamás lanzado con este nivel de apertura”.

En pruebas directas, Nemotron 3 Super registró un 11 por ciento más de rendimiento por cada GPU Nvidia B200 frente al modelo gpt-oss-120b de OpenAI. Sin embargo, quedó ligeramente por debajo del sistema chino Qwen3.5 122B en puntajes brutos de inteligencia.

Bryan Catanzaro, vicepresidente de Investigación de Aprendizaje Profundo Aplicado en Nvidia, confirmó la noticia en sus redes profesionales. El directivo definió al sistema como un “Híbrido SSM Latente MoE 120B-12A, diseñado para Blackwell, preentrenado en NVFP4”.

Nvidia publicó el modelo bajo una licencia permisiva junto con su metodología de entrenamiento y entornos de aprendizaje por refuerzo. Diversas corporaciones ya adoptaron la tecnología:

  • Disponibilidad en la nube: Accesible vía Google Cloud Vertex AI y Oracle Cloud Infrastructure, con planes de llegar a Amazon Web Services y Microsoft Azure.
  • Integración de hardware y búsqueda: Dell, HPE y Perplexity ya lo utilizan en sus plataformas empresariales.
  • Automatización corporativa: Palantir, Siemens y Dassault Systèmes lo aplican para optimizar flujos de trabajo pesados.
  • Desarrollo y ciencias: Startups como CodeRabbit, Factory, Edison Scientific y Lila Sciences figuran entre los primeros usuarios.

Este despliegue cumple el calendario que Nvidia fijó en diciembre de 2025. Liberar modelos de alto calibre asegura que los desarrolladores sigan comprando y usando su hardware, frenando la tracción del código abierto de China y evitando que más empresas diseñen su propio silicio.

Contenido recomendado