Manufactura industrial
Internet industrial de las cosas | Materiales industriales | Mantenimiento y reparación de equipos | Programación industrial |
home  MfgRobots >> Manufactura industrial >  >> Industrial Internet of Things >> Sensor

El sistema de inteligencia artificial de la Universidad de Duke brinda a los robots sensores similares a los humanos para una navegación más segura

Universidad de Duke, Durham, Carolina del Norte

WildFusion utiliza una combinación de vista, tacto, sonido y equilibrio para ayudar a los robots de cuatro patas a navegar mejor en terrenos difíciles como bosques densos. (Imagen:Universidad de Duke)

Es notable la gran cantidad de información proporcionada por nuestros sentidos que permite a nuestro cerebro navegar por el mundo que nos rodea. El tacto, el olfato, el oído y un fuerte sentido del equilibrio son cruciales para superar lo que a nosotros nos parecen entornos fáciles, como una relajante caminata una mañana de fin de semana.

Una comprensión innata del dosel que nos cubre nos ayuda a descubrir adónde lleva el camino. El chasquido agudo de las ramas o el suave cojín del musgo nos informan sobre la estabilidad de nuestro paso. El trueno de un árbol que cae o las ramas que bailan con fuertes vientos nos avisan de posibles peligros cercanos.

Los robots, por el contrario, han dependido durante mucho tiempo únicamente de información visual, como cámaras o LiDAR, para moverse por el mundo. Fuera de Hollywood, la navegación multisensorial sigue siendo un desafío para las máquinas desde hace mucho tiempo. El bosque, con su hermoso caos de densa maleza, troncos caídos y terreno en constante cambio, es un laberinto de incertidumbre para los robots tradicionales.

Ahora, investigadores de la Universidad de Duke han desarrollado un marco novedoso llamado WildFusion que fusiona la visión, la vibración y el tacto para permitir a los robots "sentir" entornos exteriores complejos de forma muy parecida a como lo hacen los humanos.

"WildFusion abre un nuevo capítulo en navegación robótica y mapeo 3D", dijo Boyuan Chen, profesor asistente de ingeniería mecánica y ciencia de materiales, ingeniería eléctrica e informática y ciencias de la computación de la familia Dickinson en la Universidad de Duke. "Ayuda a los robots a operar con más confianza en entornos no estructurados e impredecibles como bosques, zonas de desastre y terrenos todoterreno".

"Los robots típicos dependen en gran medida de la visión o LiDAR únicamente, que a menudo fallan sin caminos claros o puntos de referencia predecibles", añadió Yanbaihui Liu, autor principal y estudiante de doctorado de segundo año. estudiante en el Laboratorio de Robótica General de Chen. "Incluso los métodos avanzados de mapeo 3D tienen dificultades para reconstruir un mapa continuo cuando los datos de los sensores son escasos, ruidosos o incompletos, lo cual es un problema frecuente en entornos exteriores no estructurados. Ese es exactamente el desafío para el que se diseñó WildFusion".

WildFusion, construido sobre un robot cuadrúpedo, integra múltiples modalidades de detección, incluida una cámara RGB, LiDAR, sensores inerciales y, en particular, micrófonos de contacto y sensores táctiles. Como en los enfoques tradicionales, la cámara y el LiDAR capturan la geometría, el color, la distancia y otros detalles visuales del entorno. Lo que hace especial a WildFusion es su uso de vibraciones acústicas y tacto.

Mientras el robot camina, los micrófonos de contacto registran las vibraciones únicas generadas por cada paso, capturando diferencias sutiles, como el crujido de las hojas secas versus el suave aplastamiento del barro. Mientras tanto, los sensores táctiles miden cuánta fuerza se aplica a cada pie, lo que ayuda al robot a detectar la estabilidad o el deslizamiento en tiempo real. Estos sentidos adicionales también se complementan con el sensor inercial que recopila datos de aceleración para evaluar cuánto se tambalea, cabecea o rueda el robot mientras atraviesa terreno irregular.

Luego, cada tipo de datos sensoriales se procesa a través de codificadores especializados y se fusionan en una representación única y rica. En el corazón de WildFusion hay un modelo de aprendizaje profundo basado en la idea de representaciones neuronales implícitas. A diferencia de los métodos tradicionales que tratan el entorno como una colección de puntos discretos, este enfoque modela superficies y características complejas de forma continua, lo que permite al robot tomar decisiones más inteligentes e intuitivas sobre dónde pisar, incluso cuando su visión está bloqueada o es ambigua.

"Piense en ello como resolver un rompecabezas al que le faltan algunas piezas, pero puede imaginar intuitivamente la imagen completa", explicó Chen. "El enfoque multimodal de WildFusion permite que el robot 'llene los espacios en blanco' cuando los datos del sensor son escasos o ruidosos, muy parecido a lo que hacen los humanos".

WildFusion se probó en el Parque Estatal Eno River en Carolina del Norte, cerca del campus de Duke, y ayudó con éxito a un robot a navegar por densos bosques, pastizales y caminos de grava. "Ver al robot navegar con confianza por el terreno fue increíblemente gratificante", compartió Liu.

"Estas pruebas del mundo real demostraron la notable capacidad de WildFusion para predecir con precisión la transitabilidad, mejorando significativamente la toma de decisiones del robot sobre caminos seguros a través de terrenos desafiantes", dijo Liu.

De cara al futuro, el equipo planea ampliar el sistema incorporando sensores adicionales, como detectores térmicos o de humedad, para mejorar aún más la capacidad de un robot para comprender y adaptarse a entornos complejos. Con su diseño modular flexible, WildFusion ofrece un gran potencial para aplicaciones más allá de los senderos forestales, incluida la respuesta a desastres en terrenos impredecibles, la inspección de infraestructura remota y la exploración autónoma. "Uno de los desafíos clave para la robótica actual es desarrollar sistemas que no sólo funcionen bien en el laboratorio sino que funcionen de manera confiable en entornos del mundo real", dijo Chen. "Eso significa robots que puedan adaptarse, tomar decisiones y seguir moviéndose".

Para obtener más información, comuníquese con Boyuan Chen en Esta dirección de correo electrónico está protegida contra spambots. Necesita activar JavaScript para verlo..


Sensor

  1. Sony apila el sensor SPAD y la lógica en un solo chip para lidar automotriz
  2. Enfoque de la instalación:Instituto de Tecnología de Rochester
  3. Esta es una idea:audífonos
  4. Los algoritmos mejoran el rendimiento de los drones Quadrotor
  5. Láser portátil de terahercios de alta potencia
  6. Microbio convierte residuos en productos químicos industriales
  7. Funcionamiento del sensor de estacionamiento y sus aplicaciones
  8. El monitoreo de la fuerza de corte en tiempo real mejora la precisión y la eficiencia
  9. Microchip volador electrónico tridimensional
  10. Cómo contener la fuga térmica
  11. El software mejora la precisión de las piezas impresas en 3D