Un nuevo método de simulación permite a los robots detectar con precisión las propiedades de los objetos
Instituto de Tecnología de Massachusetts, Cambridge, MA
Con un nuevo método de simulación, los robots pueden adivinar el peso, la suavidad y otras propiedades físicas de un objeto con solo levantarlo. (Imagen:Noticias del MIT/iStock)Un humano que limpia la basura de un ático a menudo puede adivinar el contenido de una caja simplemente levantándola y agitándola, sin necesidad de ver qué hay dentro. Investigadores del MIT, Amazon Robotics y la Universidad de Columbia Británica han enseñado a los robots a hacer algo similar.
Desarrollaron una técnica que permite a los robots utilizar sólo sensores internos para conocer el peso, la suavidad o el contenido de un objeto levantándolo y agitándolo suavemente. Con su método, que no requiere cámaras ni herramientas de medición externas, el robot puede adivinar con precisión parámetros como la masa de un objeto en cuestión de segundos.
Esta técnica de bajo costo podría ser especialmente útil en aplicaciones donde las cámaras pueden ser menos efectivas, como clasificar objetos en un sótano oscuro o limpiar escombros dentro de un edificio que se derrumbó parcialmente después de un terremoto.
La clave de su enfoque es un proceso de simulación que incorpora modelos del robot y del objeto para identificar rápidamente las características de ese objeto a medida que el robot interactúa con él.
La técnica de los investigadores es tan buena para adivinar la masa de un objeto como algunos métodos más complejos y costosos que incorporan visión por computadora. Además, su enfoque de uso eficiente de los datos es lo suficientemente sólido como para manejar muchos tipos de escenarios invisibles.
"Esta idea es general y creo que apenas estamos arañando la superficie de lo que un robot puede aprender de esta manera. Mi sueño sería que los robots salieran al mundo, tocaran y movieran cosas en sus entornos y descubrieran por sí solos las propiedades de todo con lo que interactúan", afirmó Peter Yichen Chen, postdoctorado del MIT y autor principal de un artículo sobre esta técnica.
El método del equipo de investigación aprovecha la propiocepción, que es la capacidad de un ser humano o un robot para sentir su movimiento o posición en el espacio. Por ejemplo, un ser humano que levanta una mancuerna en el gimnasio puede sentir el peso de esa mancuerna en su muñeca y bíceps, aunque la sostenga en su mano. Del mismo modo, un robot puede “sentir” el peso de un objeto a través de las múltiples articulaciones de su brazo.
"Un ser humano no tiene mediciones súper precisas de los ángulos de las articulaciones de nuestros dedos o la cantidad precisa de torque que aplicamos a un objeto, pero un robot sí. Aprovechamos estas habilidades", dijo el coautor Chao Liu, postdoctorado en el MIT.
A medida que el robot levanta un objeto, el sistema de los investigadores recopila señales de los codificadores de articulaciones del robot, que son sensores que detectan la posición de rotación y la velocidad de sus articulaciones durante el movimiento.
La mayoría de los robots tienen codificadores conjuntos dentro de los motores que accionan sus partes móviles, añadió Liu. Esto hace que su técnica sea más rentable que algunos enfoques porque no necesita componentes adicionales como sensores táctiles o sistemas de seguimiento de la visión.
Para estimar las propiedades de un objeto durante las interacciones robot-objeto, su sistema se basa en dos modelos:uno que simula el robot y su movimiento y otro que simula la dinámica del objeto. "Tener un gemelo digital preciso del mundo real es realmente importante para el éxito de nuestro método", añadió Chen.
Su algoritmo "observa" el movimiento del robot y el objeto durante una interacción física y utiliza datos del codificador conjunto para trabajar hacia atrás e identificar las propiedades del objeto. Por ejemplo, un objeto más pesado se moverá más lento que uno ligero si el robot aplica la misma cantidad de fuerza.
Utilizan una técnica llamada simulación diferenciable, que permite al algoritmo predecir cómo pequeños cambios en las propiedades de un objeto, como la masa o la suavidad, impactan la posición final de la articulación del robot. Los investigadores construyeron sus simulaciones utilizando la biblioteca Warp de NVIDIA, una herramienta de desarrollo de código abierto que admite simulaciones diferenciables.
Una vez que la simulación diferenciable coincide con los movimientos reales del robot, el sistema ha identificado la propiedad correcta. El algoritmo puede hacer esto en cuestión de segundos y solo necesita ver una trayectoria real del robot en movimiento para realizar los cálculos.
"Técnicamente, siempre que conozcas el modelo del objeto y cómo el robot puede aplicar fuerza a ese objeto, deberías poder descubrir el parámetro que deseas identificar", dijo Liu. Los investigadores utilizaron su método para conocer la masa y la suavidad de un objeto, pero su técnica también podría determinar propiedades como el momento de inercia o la viscosidad de un fluido dentro de un recipiente.
Además, debido a que su algoritmo no necesita un conjunto de datos extenso para el entrenamiento como algunos métodos que se basan en visión por computadora o sensores externos, no sería tan susceptible a fallar cuando se enfrenta a entornos invisibles u objetos nuevos.
En el futuro, los investigadores quieren intentar combinar su método con la visión por computadora para crear una técnica de detección multimodal que sea aún más poderosa.
"Este trabajo no intenta reemplazar la visión por computadora. Ambos métodos tienen sus pros y sus contras. Pero aquí hemos demostrado que sin una cámara ya podemos descubrir algunas de estas propiedades", dijo Chen.
También quieren explorar aplicaciones con sistemas robóticos más complicados, como robots blandos, y objetos más complejos, incluidos líquidos chapoteantes o medios granulares como arena. A largo plazo, esperan aplicar esta técnica para mejorar el aprendizaje de los robots, permitiendo que los futuros robots desarrollen rápidamente nuevas habilidades de manipulación y se adapten a los cambios en sus entornos.
Para obtener más información, comuníquese con Melanie Grados en Esta dirección de correo electrónico está protegida contra spambots. Necesita activar JavaScript para verlo.; 617-253-1682.
Sensor
- Revolucionando la tecnología portátil:dispositivos electrónicos impresos in situ para tatuajes con biosensores personalizados
- Biosensor permite el monitoreo de oxígeno en tiempo real para Organs-On-A-Chip
- Mejora del control de la mano protésica:avances precisos en la interfaz cerebro-computadora
- Red de sensores inalámbricos de largo alcance
- Sistema Fotorreceptor para Regulación de Melatonina y Fototerapia
- CEVA presenta una nueva arquitectura DSP de concentrador de sensores configurable
- Enero de 2026:avances de vanguardia en fotónica, óptica e imágenes
- El sensor de piel electrónico decodifica el movimiento humano
- Funcionamiento del sensor láser y sus aplicaciones
- El concentrador de sensores se expande a siete núcleos DSP e ISA específicos de la aplicación
- Desafía tu experiencia en osciloscopios:cuestionario rápido para profesionales de la electrónica