Manufactura industrial
Internet industrial de las cosas | Materiales industriales | Mantenimiento y reparación de equipos | Programación industrial |
home  MfgRobots >> Manufactura industrial >  >> Industrial Internet of Things >> Sensor

Pipelines impulsados por simulación adaptan datos de entrenamiento para robots diestros

Diseño de movimiento INSIDER

PhysicsGen puede multiplicar unas pocas docenas de demostraciones de realidad virtual en casi 3.000 simulaciones por máquina para compañeros mecánicos como brazos y manos robóticos. (Imagen:Diseñada por Alex Shipps/MIT CSAIL, usando fotografías de los investigadores)

Cuando ChatGPT o Gemini dan lo que parece ser una respuesta experta a sus preguntas candentes, es posible que no se dé cuenta de cuánta información se basa para dar esa respuesta. Al igual que otros modelos populares de inteligencia artificial generativa (IA), estos chatbots se basan en sistemas troncales llamados modelos básicos que se entrenan con miles de millones, o incluso billones, de puntos de datos.

De manera similar, los ingenieros esperan construir modelos básicos que entrenen a una variedad de robots en nuevas habilidades como recoger, mover y dejar objetos en lugares como hogares y fábricas. El problema es que es difícil recopilar y transferir datos de instrucción entre sistemas robóticos. Podría enseñarle a su sistema teleoperando el hardware paso a paso utilizando tecnología como la realidad virtual (VR), pero eso puede llevar mucho tiempo. La capacitación con videos de Internet es menos instructiva, ya que los clips no proporcionan una guía paso a paso de tareas especializadas para robots específicos.

Un enfoque basado en simulación llamado "PhysicsGen" del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT y el Instituto de Robótica e Inteligencia Artificial personaliza los datos de entrenamiento de los robots para ayudarlos a encontrar los movimientos más eficientes para una tarea. El sistema puede multiplicar unas pocas docenas de demostraciones de realidad virtual en casi 3.000 simulaciones por máquina. Estas instrucciones de alta calidad luego se asignan a las configuraciones precisas de compañeros mecánicos como brazos y manos robóticos.

PhysicsGen crea datos que se generalizan a robots específicos y acondicionan mediante un proceso de tres pasos. Primero, un visor de realidad virtual rastrea cómo los humanos manipulan objetos como bloques usando sus manos. Estas interacciones se mapean al mismo tiempo en un simulador de física 3D, visualizando los puntos clave de nuestras manos como pequeñas esferas que reflejan nuestros gestos. Por ejemplo, si volteas un juguete, verás formas 3D que representan diferentes partes de tus manos girando una versión virtual de ese objeto.

Luego, la tubería reasigna estos puntos a un modelo 3D de la configuración de una máquina específica (como un brazo robótico), moviéndolos a las "articulaciones" precisas donde un sistema gira y gira. Finalmente, PhysicsGen utiliza la optimización de trayectoria (esencialmente simula los movimientos más eficientes para completar una tarea) para que el robot conozca las mejores maneras de hacer cosas como reposicionar una caja.

Cada simulación es un punto de datos de entrenamiento detallado que guía a un robot a través de posibles formas de manipular objetos. Cuando se implementa en una política (el plan de acción que sigue el robot), la máquina tiene una variedad de formas de abordar una tarea y puede probar diferentes movimientos si uno no funciona.

"Estamos creando datos específicos de robots sin necesidad de que los humanos vuelvan a grabar demostraciones especializadas para cada máquina", dijo Lujie Yang, Ph.D. estudiante de ingeniería eléctrica e informática y afiliado de CSAIL que es el autor principal de un nuevo artículo que presenta el proyecto. "Estamos ampliando los datos de forma autónoma y eficiente, haciendo que las instrucciones de las tareas sean útiles para una gama más amplia de máquinas".

Generar tantas trayectorias de instrucción para robots podría eventualmente ayudar a los ingenieros a construir un conjunto de datos masivo para guiar máquinas como brazos robóticos y manos diestras. Por ejemplo, el oleoducto podría ayudar a dos brazos robóticos a colaborar para recoger artículos del almacén y colocarlos en las cajas adecuadas para las entregas. El sistema también puede guiar a dos robots para que trabajen juntos en una casa en tareas como guardar tazas.

El potencial de PhysicsGen también se extiende a la conversión de datos diseñados para robots más antiguos o entornos diferentes en instrucciones útiles para máquinas nuevas. "A pesar de haber sido recopilados para un tipo específico de robot, podemos revivir estos conjuntos de datos anteriores para hacerlos más útiles en general", dijo Yang. PhysicsGen convirtió sólo 24 demostraciones humanas en miles de demostraciones simuladas, ayudando a robots tanto digitales como del mundo real a reorientar objetos.

Yang y sus colegas probaron por primera vez su tubería en un experimento virtual en el que una mano robótica flotante necesitaba rotar un bloque hasta una posición objetivo. El robot digital ejecutó la tarea con una tasa de precisión del 81 por ciento entrenándose con el enorme conjunto de datos de PhysicsGen, una mejora del 60 por ciento con respecto a una base que solo aprendió de demostraciones humanas.

Los investigadores también descubrieron que PhysicsGen podría mejorar la forma en que los brazos robóticos virtuales colaboran para manipular objetos. Su sistema creó datos de entrenamiento adicionales que ayudaron a dos pares de robots a realizar con éxito tareas hasta un 30 por ciento más a menudo que una línea de base puramente enseñada por humanos.

En un experimento con un par de brazos robóticos del mundo real, los investigadores observaron mejoras similares cuando las máquinas se unieron para girar una caja grande a su posición designada. Cuando los robots se desviaron de la trayectoria prevista o manejaron mal el objeto, pudieron recuperarse a mitad de la tarea haciendo referencia a trayectorias alternativas de su biblioteca de datos de instrucción.

El autor principal Russ Tedrake, profesor Toyota de Ingeniería Eléctrica y Ciencias de la Computación, Aeronáutica y Astronáutica e Ingeniería Mecánica en el MIT, dijo que esta técnica de generación de datos guiada por imitación combina las fortalezas de la demostración humana con el poder de los algoritmos de planificación del movimiento de los robots.

"Incluso una sola demostración de un ser humano puede hacer que el problema de planificación del movimiento sea mucho más fácil", dijo Tedrake, quien también es vicepresidente senior de grandes modelos de comportamiento en el Instituto de Investigación Toyota e investigador principal de CSAIL. "En el futuro, tal vez los modelos básicos puedan proporcionar esta información, y este tipo de técnica de generación de datos proporcionará un tipo de receta posterior al entrenamiento para ese modelo".

Pronto, PhysicsGen podría extenderse a una nueva frontera:diversificar las tareas que una máquina puede ejecutar. "Nos gustaría utilizar PhysicsGen para enseñar a un robot a verter agua cuando, por ejemplo, sólo ha sido entrenado para guardar los platos", dice Yang. "Nuestro proceso no solo genera movimientos dinámicamente factibles para tareas familiares; también tiene el potencial de crear una biblioteca diversa de interacciones físicas que creemos que pueden servir como bloques de construcción para realizar tareas completamente nuevas que un ser humano no ha demostrado".

La creación de una gran cantidad de datos de entrenamiento ampliamente aplicables puede eventualmente ayudar a construir un modelo básico para robots, aunque los investigadores del MIT advierten que este es un objetivo algo lejano. El equipo dirigido por CSAIL está investigando cómo PhysicsGen puede aprovechar vastos recursos no estructurados, como vídeos de Internet, como semillas para la simulación. El objetivo:transformar el contenido visual cotidiano en datos ricos y listos para robots que puedan enseñar a las máquinas a realizar tareas que nadie les mostró explícitamente.

Yang y sus colegas también pretenden hacer que PhysicsGen sea aún más útil para robots con diversas formas y configuraciones en el futuro. Para que esto suceda, planean aprovechar conjuntos de datos con demostraciones de robots reales, capturando cómo se mueven las articulaciones robóticas en lugar de las humanas.

Los investigadores también planean incorporar el aprendizaje por refuerzo, donde un sistema de inteligencia artificial aprende por prueba y error, para que PhysicsGen expanda su conjunto de datos más allá de los ejemplos proporcionados por humanos. Pueden aumentar su canal con técnicas de percepción avanzadas para ayudar a un robot a percibir e interpretar su entorno visualmente, permitiendo a la máquina analizar y adaptarse a las complejidades del mundo físico.

Por ahora, PhysicsGen muestra cómo la IA puede ayudarnos a enseñar a diferentes robots a manipular objetos dentro de la misma categoría, particularmente los rígidos. Es posible que el oleoducto pronto ayude a los robots a encontrar las mejores formas de manipular objetos blandos (como frutas) y deformables (como arcilla), pero esas interacciones aún no son fáciles de simular.

Fuente 


Sensor

  1. Pruebas de vehículos autónomos (AV):simulación frente a circuito cerrado frente a vías públicas
  2. Novedades en sensores MEMS para tecnología ponible
  3. Un sensor impulsado por IA detecta firmas espectrales en cultivos y hojas con una velocidad inigualable
  4. La necesidad de sensores de presión ultrabaja de alta precisión
  5. Este avance puede habilitar transistores 2D para componentes de microchip más pequeños
  6. La tecnología Lidar presenta detección de largo alcance
  7. ON Semi agrega la tecnología de ubicación Quuppa AoA a Bluetooth SoC
  8. AMETEK STC lanza un nuevo calibrador de temperatura JOFRA enfocado en la calibración de sensores sanitarios
  9. CES 2026:Innovaciones en electrónica de potencia que impulsan la IA y los vehículos eléctricos
  10. 5 W de sensores flotantes
  11. Prueba de COVID-19 basada en teléfonos inteligentes