Sharpa y NVIDIA revelan simuladores de IA para robots

Sharpa y NVIDIA revelan simuladores de IA para robots

Sharpa y NVIDIA revelan herramientas de simulación y entrenamiento con IA para robots previo a la conferencia GTC 2026.

Por Humberto Toledo el 13 marzo, 2026 a las 13:02

💡 Resumen (TL;DR):

  • Sharpa y NVIDIA colaboran para lanzar herramientas de simulación táctil e imitación visual para brazos robóticos.
  • El sistema EgoScale procesó más de 20,854 horas de video para mejorar el éxito de tareas automatizadas en un 54%.
  • Los desarrollos posicionan el hardware de Sharpa como plataforma clave para la IA física rumbo a la GTC 2026.

La compañía de robótica singapurense Sharpa anunció una alianza de investigación con NVIDIA para lanzar nuevas herramientas de simulación. Esta colaboración presenta su mano robótica hiperarticulada como plataforma central para investigación avanzada en manipulación de objetos, justo a días del inicio de la conferencia GTC 2026 en San José, donde la startup exhibirá en el stand #1838.

La asociación técnica opera bajo dos grandes vías de investigación: el entorno de simulación táctil Tacmap y el sistema de transferencia de habilidades humano-robot EgoScale. Ambos modelos utilizan como base de hardware la mano robótica Wave de Sharpa, la cual cuenta con 22 grados de libertad.

Tacmap es un marco de simulación táctil que mapea datos del mundo real y virtual en una representación geométrica compartida. Su objetivo es generar una retroalimentación lo suficientemente realista para que los algoritmos entrenados por computadora funcionen directamente en máquinas físicas, evitando las limitantes ópticas de los sensores individuales.

Al integrarse en el entorno Isaac Lab de NVIDIA, este software mantiene altas velocidades de renderizado para facilitar el aprendizaje por refuerzo. Durante un experimento de rotación de objetos, un modelo entrenado totalmente en simulación logró transferirse a la mano física Wave bajo un esquema zero-shot, completando la tarea sin necesitar ajustes previos en el mundo real.

Mano robótica diestra de color gris manipulando un objeto geométrico sobre un fondo claro y desenfocado con espacio negativo.
Mano robótica diestra de color gris manipulando un objeto geométrico sobre un fondo claro y desenfocado con espacio negativo.

Entrenando robots con miles de horas de video

Paralelamente, los investigadores de NVIDIA eligieron el hardware de Sharpa para ejecutar EgoScale. Este modelo entrena a los robots alimentándolos con volúmenes masivos de datos en video captados desde la perspectiva humana.

El equipo de ingenieros consolidó una de las bases de entrenamiento más ambiciosas a la fecha:

  • Procesaron 20,854 horas de video etiquetado de humanos interactuando con su entorno.
  • Extrajeron información de casi 10,000 escenarios distintos.
  • Identificaron más de 43,000 objetos, creando un set de datos 20 veces mayor al de proyectos anteriores.

Este esquema de preentrenamiento mejoró la tasa de éxito en tareas de ensamblaje y manipulación en un 54% promedio frente a los modelos básicos. El sistema también logró una adaptación de tarea one-shot, permitiendo que el robot registrara un 88% de éxito doblando una camisa tras ver el proceso una sola vez.

Fundada en 2024, Sharpa arrancó la producción masiva de la mano Wave a finales de 2025. En enero de 2026, la compañía presentó a North, su primer robot de cuerpo completo capaz de jugar ping-pong y ensamblar molinos de viento en secuencias de 30 pasos de forma autónoma.

Hoy operan en Singapur, Estados Unidos y China con más de 100 empleados bajo una directriz estricta: “fabricar tiempo al hacer que los robots sean útiles”. Estos avances validan a Sharpa dentro del creciente sector de la IA física, concepto central que Jensen Huang perfilará en su próxima presentación del 16 de marzo.

FUENTE

Contenido recomendado