Investigadores de Carnegie Mellon desarrollan robots aéreos que priorizan estratégicamente las salas para la exploración multisala
Robótica y Automatización INSIDER
Los investigadores del Instituto de Robótica han desarrollado un nuevo método para la exploración de robots aéreos autónomos y la coordinación de múltiples robots dentro de edificios abandonados. (Crédito:Universidad Carnegie Mellon)Se estima que 100 terremotos en todo el mundo causan daños cada año. Este daño incluye edificios derrumbados, líneas eléctricas caídas y más. Para los socorristas, evaluar la escena y centrar los esfuerzos de rescate puede ser crítico y arriesgado.
Investigadores del Instituto de Robótica (RI) de la Universidad Carnegie Mellon en la Facultad de Ciencias de la Computación han desarrollado un nuevo método para la exploración de robots aéreos autónomos y la coordinación de múltiples robots dentro de edificios abandonados que podría ayudar a los socorristas a recopilar información y tomar decisiones mejor informadas después de un desastre.
Una idea clave de esta investigación fue evitar la redundancia en la exploración", dijo el estudiante de doctorado Seungchan Kim. "Dado que se trata de una exploración multirobot, la coordinación y comunicación entre robots es vital. Diseñamos este sistema para que cada robot explore diferentes salas, maximizando las salas que una cantidad determinada de drones podrían explorar".
Los drones se centran en detectar puertas rápidamente porque es más probable que los objetivos significativos, como las personas, estén en habitaciones que en pasillos. Para encontrar estas entradas específicas, los robots procesan las propiedades geométricas de su entorno utilizando un sensor LiDAR integrado. Flotando suavemente a unos dos metros del suelo, los robots aéreos transforman los datos de la nube de puntos LiDAR 3D en un mapa de transformación 2D. Este mapa proporciona el diseño del espacio como una imagen formada por celdas o píxeles, que luego los robots analizan en busca de pistas estructurales que indiquen puertas y habitaciones. Las paredes aparecen como píxeles ocupados cerca del dron, mientras que una puerta abierta o un pasillo se presentan como píxeles vacíos. Los investigadores modelaron las puertas como puntos de silla, lo que permitió al robot identificar pasillos y atravesarlos rápidamente. Cuando un robot entra en una habitación, aparece como un círculo.
Kim explicó que los investigadores optaron por un sensor LiDAR en lugar de una cámara por dos razones principales. En primer lugar, el sensor utiliza menos potencia informática que una cámara. En segundo lugar, las condiciones dentro de un edificio derrumbado o en el lugar de un desastre natural pueden ser polvorientas o llenas de humo, lo que afectaría la visión de una cámara tradicional.
Ninguna base centralizada controla los robots. Más bien, cada robot toma decisiones y determina trayectorias óptimas basándose en su comprensión del entorno y la comunicación con los demás robots. Los robots aéreos comparten entre sí la lista de puertas y habitaciones que han explorado y utilizan esta información para evitar áreas que ya han sido visitadas.
Fuente
Sensor
- Fuego de leña
- El papel de los sensores ópticos en aplicaciones electrónicas
- Dos técnicas para linealizar puentes de sensores resistivos
- Fabricación acelerada de sensores portátiles extensibles en UC Berkeley
- Últimos proyectos LDR simples para estudiantes de ingeniería
- Preguntas y respuestas:Team of Robots Maps Composición de un entorno
- Mesa redonda ejecutiva:Detección e IIoT
- Aplicaciones y trabajo del sensor inductivo
- Dispositivos portátiles de autoalimentación con microsupercondensadores extensibles
- Grandes circuitos integrados producidos en una imprenta
- SoloHI Imager captura una rara imagen de Venus, la Tierra, Marte y Urano