Un gran desafío a la hora de entrenar modelos de IA para controlar robots es recopilar suficientes datos realistas. Ahora, investigadores del MIT han demostrado que pueden entrenar a un perro robotic utilizando datos 100 por ciento sintéticos.
Tradicionalmente, los robots han sido codificados a mano para realizar tareas particulares, pero este enfoque da como resultado sistemas frágiles que luchan por hacer frente a la incertidumbre del mundo actual. Los enfoques de aprendizaje automático que entrenan robots con ejemplos del mundo actual prometen crear máquinas más flexibles, pero recopilar suficientes datos de entrenamiento es un desafío importante.
Una posible solución es entrenar robots usando simulaciones por computadora del mundo actual, lo que hace que sea mucho más sencillo configurar tareas o entornos novedosos para ellos. Pero este enfoque se ve afectado por la “brecha entre simulación y realidad”: estos entornos virtuales siguen siendo réplicas deficientes del mundo actual y las habilidades aprendidas en ellos a menudo no se traducen.
Ahora, Los investigadores del MIT CSAIL han encontrado una manera combinar simulaciones e IA generativa para permitir que un robotic, entrenado sin datos del mundo actual, pueda abordar una serie de tareas de locomoción desafiantes en el mundo físico.
«Uno de los principales desafíos en la transferencia de simulación an actual para la robótica es lograr realismo visible en entornos simulados», dijo en un comunicado Shuran Music de la Universidad de Stanford, que no participó en la investigación. comunicado de prensa del MIT.
“El marco LucidSim proporciona una solución elegante mediante el uso de modelos generativos para crear datos visuales diversos y altamente realistas para cualquier simulación. Este trabajo podría acelerar significativamente el despliegue de robots entrenados en entornos virtuales para tareas del mundo actual”.
Los principales simuladores utilizados hoy en día para entrenar robots pueden reproducir de manera realista el tipo de física que probablemente encontrarán los robots. Pero no son tan buenos para recrear los diversos entornos, texturas y condiciones de iluminación que se encuentran en el mundo actual. Esto significa que los robots que dependen de la percepción visible a menudo tienen dificultades en entornos menos controlados.
Para solucionar esto, los investigadores del MIT utilizaron generadores de texto a imagen para crear escenas realistas y las combinaron con un standard simulador llamado MuJoCo para mapear datos geométricos y físicos en las imágenes. Para aumentar la diversidad de imágenes, el equipo también utilizó ChatGPT para crear miles de mensajes para el generador de imágenes que cubren una amplia gama de entornos.
Después de generar estas imágenes ambientales realistas, los investigadores las convirtieron en movies cortos desde la perspectiva de un robotic usando otro sistema que desarrollaron llamado Goals in Movement. Esto calcula cómo se desplazaría cada píxel de la imagen a medida que el robotic se mueve a través de un entorno, creando múltiples cuadros a partir de una sola imagen.
Los investigadores denominaron este canal de generación de datos LucidSim y lo utilizaron para entrenar un modelo de inteligencia synthetic para controlar un robotic cuadrúpedo utilizando solo información visible. El robotic aprendió una serie de tareas de locomoción, como subir y bajar escaleras, trepar cajas y perseguir una pelota de fútbol.
El proceso de formación se dividió en partes. Primero, el equipo entrenó su modelo con datos generados por un sistema de inteligencia synthetic experto con acceso a información detallada del terreno mientras intentaba realizar las mismas tareas. Esto le dio al modelo suficiente comprensión de las tareas para intentarlas en una simulación basada en los datos de LucidSim, que generó más datos. Luego volvieron a entrenar el modelo con los datos combinados para crear la política de management robótico ultimate.
El enfoque igualó o superó al sistema experto de IA en cuatro de las cinco tareas en pruebas del mundo actual, a pesar de depender únicamente de información visible. Y en todas las tareas, superó significativamente a un modelo entrenado mediante “aleatorización de dominio”, un enfoque de simulación líder que aumenta la diversidad de datos mediante la aplicación de colores y patrones aleatorios a los objetos del entorno.
los investigadores dijo Revisión de tecnología del MIT su próximo objetivo es entrenar un robotic humanoide con datos puramente sintéticos generados por LucidSim. También esperan utilizar este enfoque para mejorar el entrenamiento de brazos robóticos en tareas que requieren destreza.
Dado el insaciable apetito por los datos de entrenamiento de robots, es possible que métodos como este, que pueden proporcionar alternativas sintéticas de alta calidad, adquieran cada vez más importancia en los próximos años.
Crédito de la imagen: MIT CSAIL