Genie Envisioner: IA Generativa de Video Unificada para Robótica Escalable

Marktechpost

La búsqueda de sistemas robóticos verdaderamente inteligentes capaces de percibir, pensar y actuar de forma autónoma en el mundo real representa una frontera en la inteligencia artificial. Un obstáculo fundamental en este viaje es lograr una manipulación robótica escalable y fiable: el control preciso y la interacción con objetos a través de un contacto deliberado. Si bien la investigación ha avanzado a través de varios métodos, desde modelos analíticos hasta el aprendizaje basado en datos, la mayoría de los sistemas existentes siguen fragmentados. La recopilación de datos, el entrenamiento y la evaluación suelen ocurrir en etapas aisladas, lo que a menudo exige configuraciones personalizadas, una curación manual minuciosa y ajustes específicos para cada tarea. Este enfoque desarticulado crea una fricción significativa, lo que dificulta el progreso, oscurece los patrones de falla y hace que la investigación sea difícil de reproducir, lo que subraya una necesidad crítica de un marco unificado para agilizar el aprendizaje y la evaluación.

Históricamente, la investigación en manipulación robótica ha evolucionado desde modelos puramente analíticos hasta sofisticados modelos de mundo neuronales que aprenden la dinámica ambiental directamente de las entradas sensoriales, operando tanto con datos de píxeles brutos como en espacios latentes abstractos. Al mismo tiempo, han surgido modelos de generación de video a gran escala, capaces de producir imágenes notablemente realistas. Sin embargo, estos a menudo se quedan cortos en lo que respecta al control robótico, careciendo con frecuencia de la capacidad de condicionar acciones, mantener una consistencia temporal a largo plazo o realizar un razonamiento de múltiples vistas crucial para una manipulación efectiva. Del mismo modo, los modelos de visión-lenguaje-acción, que siguen instrucciones humanas, están en gran medida limitados por el aprendizaje basado en la imitación, lo que restringe su capacidad de recuperación de errores o planificación compleja. Evaluar la efectividad de las estrategias de control de robots, o “políticas”, también presenta un desafío significativo; los simuladores de física requieren una extensa puesta a punto, y las pruebas en el mundo real son prohibitivamente intensivas en recursos. Las métricas de evaluación actuales a menudo priorizan la fidelidad visual sobre el éxito real de la tarea, lo que destaca una brecha en los puntos de referencia que realmente reflejan el rendimiento de la manipulación en el mundo real.

Para abordar estos desafíos generalizados, investigadores del AgiBot Genie Team, NUS LV-Lab y BUAA han desarrollado el Genie Envisioner (GE). Esta innovadora plataforma unifica el aprendizaje de políticas, la simulación y la evaluación dentro de un único y potente marco generativo de video adaptado a la manipulación robótica. En su corazón se encuentra GE-Base, un modelo de difusión de video a gran escala, dirigido por instrucciones y meticulosamente entrenado para capturar las intrincadas dinámicas espaciales, temporales y semánticas de las tareas robóticas del mundo real. Sobre esta base, GE-Act traduce estas representaciones aprendidas en trayectorias de acción precisas, mientras que GE-Sim ofrece un entorno de simulación basado en video, condicionado a la acción y notablemente rápido. Para evaluar rigurosamente el rendimiento, el benchmark EWMBench que lo acompaña evalúa el realismo visual, la precisión física y la alineación entre las instrucciones y las acciones resultantes. Entrenado en más de un millón de episodios de interacción robótica, GE demuestra una impresionante generalización en diversos robots y tareas, allanando el camino para una investigación de inteligencia encarnada escalable, consciente de la memoria y con base física.

La arquitectura de Genie Envisioner está elegantemente estructurada en tres componentes principales. GE-Base, el elemento fundamental, es un modelo de difusión de video multivista y condicionado a instrucciones que ha procesado más de un millón de episodios de manipulación robótica. A través de este extenso entrenamiento, aprende “trayectorias latentes” abstractas que describen con precisión cómo evolucionan las escenas bajo comandos específicos. Aprovechando estas representaciones aprendidas, GE-Act transforma luego estas percepciones de video latentes en señales de acción tangibles utilizando un decodificador ligero de coincidencia de flujo. Esto permite un control motor rápido y preciso, incluso en tipos de robots no incluidos en los datos de entrenamiento iniciales. Además, GE-Sim reutiliza inteligentemente las capacidades generativas de GE-Base para crear un simulador neuronal condicionado a la acción. Esto permite simulaciones rápidas, de bucle cerrado y basadas en video, ejecutándose mucho más rápido que el hardware del mundo real. Todo el sistema se somete a prueba con el conjunto EWMBench, que proporciona una evaluación holística del realismo del video, la consistencia física y la alineación crucial entre las instrucciones humanas y las acciones resultantes del robot.

Evaluaciones exhaustivas han demostrado el sólido rendimiento de Genie Envisioner tanto en entornos reales como simulados en una variedad de tareas de manipulación robótica. GE-Act demostró una velocidad excepcional, generando trayectorias de acción de 54 pasos en solo 200 milisegundos, y superó constantemente a las principales líneas base de visión-lenguaje-acción tanto en tasas de éxito paso a paso como de extremo a extremo. Su adaptabilidad fue particularmente sorprendente, ya que se integró con éxito con nuevos tipos de robots como Agilex Cobot Magic y Dual Franka con solo una hora de datos específicos de la tarea, demostrando ser especialmente hábil en tareas complejas que involucran objetos deformables. Mientras tanto, GE-Sim ofreció simulaciones de video de alta fidelidad y condicionadas a la acción, proporcionando una herramienta invaluable para pruebas de políticas escalables y de bucle cerrado. El benchmark EWMBench validó aún más la superioridad de GE-Base sobre los modelos de video de última generación, confirmando su excepcional alineación temporal, consistencia de movimiento y estabilidad de la escena, todo lo cual se alineó estrechamente con los juicios de calidad humanos.

En conclusión, Genie Envisioner se erige como una plataforma potente, unificada y escalable para la manipulación robótica, que integra sin problemas el aprendizaje de políticas, la simulación y la evaluación en un único marco generativo de video. Su núcleo, GE-Base, un modelo de difusión de video guiado por instrucciones, captura magistralmente los complejos patrones espaciales, temporales y semánticos de las interacciones robóticas del mundo real. GE-Act traduce estas percepciones en planes de acción precisos y adaptables, incluso para nuevos tipos de robots con un reentrenamiento mínimo. Junto con la simulación de alta fidelidad y condicionada a la acción de GE-Sim para un refinamiento rápido de políticas y la rigurosa evaluación de EWMBench, Genie Envisioner marca un salto significativo. Las extensas pruebas en el mundo real subrayan el rendimiento superior del sistema, estableciéndolo como una base sólida para el desarrollo de inteligencia encarnada de propósito general y dirigida por instrucciones.