💡 Resumen (TL;DR):
- El Allen Institute for AI (Ai2) liberó plataformas de código abierto para enseñar manipulación física a robots mediante simulación.
- El modelo logró un 79.2% de éxito en el mundo real, superando el 39.2% de sistemas que requieren datos físicos.
- La estrategia elimina los altos costos operativos de recolección de datos, beneficiando a universidades y desarrolladores independientes.
El Allen Institute for AI (Ai2) anunció este 11 de marzo el lanzamiento de dos herramientas open source que permiten a los robots ejecutar tareas físicas complejas tras ser entrenados exclusivamente en simuladores virtuales. La liberación de este software rompe un paradigma en la robótica, al demostrar que los modelos ya no necesitan ser ajustados con demostraciones físicas del mundo real antes de operar comercialmente.
MolmoBot es una suite de modelos de manipulación robótica que interpreta fotogramas de cámara e instrucciones en lenguaje natural para dictar acciones al hardware. Su entrenamiento ocurre dentro de MolmoSpaces, un ecosistema de simulación que contiene más de 230,000 entornos de interiores, 130,000 objetos y más de 42 millones de puntos de agarre anotados.
El sistema aplica una intensa aleatorización de dominios para alterar constantemente las reglas de la física, la iluminación, los ángulos de la cámara y las formas de los objetos durante la fase de aprendizaje automático.
Operando con 100 GPUs NVIDIA A100, Ai2 generó 1.8 millones de trayectorias sintéticas dentro de la simulación. Esta arquitectura produjo más de 130 horas de experiencia robótica por cada hora de tiempo real en los servidores.
“MolmoBot responde si la manipulación visual de robots puede aprenderse puramente utilizando datos de simulación diversos y a gran escala”, escribió el investigador de Ai2, Snehal Jauhri, en LinkedIn. “¡La respuesta es sí! ¡Incluso para la manipulación móvil!”

Rendimiento físico sin telemetría real
Durante las pruebas estándar de recolección y colocación en mesas de trabajo, el modelo principal MolmoBot registró una tasa de éxito del 79.2%. El resultado duplica el 39.2% obtenido por modelos competidores alimentados directamente con datos de demostración del mundo físico.
Para validar la efectividad de los algoritmos, los ingenieros de Ai2 evaluaron el código en dos equipos comerciales sin proporcionarles ningún dato previo de la vida real:
- El brazo robótico Franka FR3.
- El manipulador móvil Rainbow Robotics RB-Y1.
- Ambos hardware lograron abrir cajones, jalar puertas de gabinetes y mover objetos correctamente.
La suite de pruebas del proyecto, MolmoSpaces-Bench, reportó una correlación casi perfecta entre simulación y realidad de R = 0.96. Todo el ecosistema fue publicado como open source y es agnóstico, lo que significa que opera con simuladores estándar de la industria como MuJoCo, NVIDIA Isaac Sim y ManiSkill.
Esta actualización da continuidad al ecosistema de inteligencia artificial de Ai2, que inició con el modelo de razonamiento de acciones MolmoAct en agosto de 2025 y el modelo de visión-lenguaje Molmo 2 en diciembre de 2025. Al suprimir la necesidad de construir laboratorios físicos para recolección de telemetría, el avance permite que startups experimenten con robótica avanzada sin requerir financiamientos millonarios.