Ingenieros de la Universidad de Maryland crean una cámara avanzada inspirada en los ojos que mejora la visión robótica
Universidad de Maryland, College Park, MD
Un diagrama que representa el novedoso sistema de cámara AMI-EV. (Imagen:Cortesía del Laboratorio de Visión por Computadora de la UMIACS)Un equipo dirigido por científicos informáticos de la Universidad de Maryland inventó un mecanismo de cámara que mejora la forma en que los robots ven y reaccionan ante el mundo que los rodea. Inspirándose en el funcionamiento del ojo humano, su innovador sistema de cámara imita los pequeños movimientos involuntarios que utiliza el ojo para mantener una visión clara y estable a lo largo del tiempo. La creación de prototipos y las pruebas de la cámara por parte del equipo, llamada Cámara de eventos mejorada con microsacadas artificiales (AMI-EV), se detallaron en un artículo publicado en la revista Science Robotics . en mayo de 2024.
"Las cámaras para eventos son una tecnología relativamente nueva que rastrea mejor objetos en movimiento que las cámaras tradicionales, pero las cámaras para eventos actuales tienen dificultades para capturar imágenes nítidas y nítidas cuando hay mucho movimiento involucrado", dijo el autor principal del artículo, Botao He, doctor en ciencias de la computación. estudiante de la Universidad de Maryland. "Es un gran problema porque los robots y muchas otras tecnologías, como los vehículos autónomos, dependen de imágenes precisas y oportunas para reaccionar correctamente a un entorno cambiante. Entonces, nos preguntamos:¿Cómo se aseguran los humanos y los animales de que su visión permanezca enfocada en un objeto en movimiento?"
Para el equipo de He, la respuesta fueron las microsacadas, movimientos oculares pequeños y rápidos que ocurren involuntariamente cuando una persona intenta enfocar su vista. A través de estos movimientos diminutos pero continuos, el ojo humano puede mantener el foco en un objeto y sus texturas visuales (como el color, la profundidad y las sombras) con precisión a lo largo del tiempo.
"Nos dimos cuenta de que así como nuestros ojos necesitan esos pequeños movimientos para mantenerse enfocados, una cámara podría usar un principio similar para capturar imágenes claras y precisas sin que el movimiento cause borrosidad", dijo.
El equipo replicó con éxito microsacádicas insertando un prisma giratorio dentro del AMI-EV para redirigir los rayos de luz capturados por la lente. El movimiento de rotación continuo del prisma simuló los movimientos que ocurren naturalmente dentro del ojo humano, permitiendo a la cámara estabilizar las texturas de un objeto grabado tal como lo haría un humano. Luego, el equipo desarrolló un software para compensar el movimiento del prisma dentro del AMI-EV y consolidar imágenes estables a partir de las luces cambiantes.
El coautor del estudio, Yiannis Aloimonos, profesor de Ciencias de la Computación en la Universidad de Maryland, considera que la invención del equipo es un gran paso adelante en el ámbito de la visión robótica.
"Nuestros ojos toman fotografías del mundo que nos rodea y esas imágenes se envían a nuestro cerebro, donde se analizan. La percepción ocurre a través de ese proceso y así es como entendemos el mundo", explicó Aloimonos, quien también es director del Laboratorio de Visión por Computadora del Instituto de Estudios Avanzados en Computación de la Universidad de Maryland (UMIACS). "Cuando trabajes con robots, reemplaza los ojos con una cámara y el cerebro con una computadora. Mejores cámaras significan mejores percepción y reacciones para los robots".
Los investigadores también creen que su innovación podría tener implicaciones importantes más allá de la robótica y la defensa nacional. Los científicos que trabajan en industrias que dependen de la captura precisa de imágenes y la detección de formas buscan constantemente formas de mejorar sus cámaras, y AMI-EV podría ser una solución clave para muchos de los problemas que enfrentan.
"Con sus características únicas, los sensores de eventos y AMI-EV están preparados para ocupar un lugar central en el ámbito de los dispositivos portátiles inteligentes", dijo la científica investigadora Cornelia Fermüller, autora principal del artículo. "Tienen claras ventajas sobre las cámaras clásicas, como un rendimiento superior en condiciones de iluminación extremas, baja latencia y bajo consumo de energía. Estas características son ideales para aplicaciones de realidad virtual, por ejemplo, donde se necesita una experiencia perfecta y cálculos rápidos de los movimientos de la cabeza y el cuerpo".
En las primeras pruebas, AMI-EV pudo capturar y mostrar el movimiento con precisión en una variedad de contextos, incluida la detección del pulso humano y la identificación de formas que se mueven rápidamente. Los investigadores también descubrieron que AMI-EV podía capturar movimiento en decenas de miles de cuadros por segundo, superando a la mayoría de las cámaras comerciales disponibles, que capturan de 30 a 1000 cuadros por segundo en promedio. Esta representación más fluida y realista del movimiento podría resultar fundamental en cualquier cosa, desde crear experiencias de realidad aumentada más inmersivas y un mejor monitoreo de seguridad hasta mejorar la forma en que los astrónomos capturan imágenes en el espacio.
"Nuestro novedoso sistema de cámara puede resolver muchos problemas específicos, como ayudar a un automóvil autónomo a descubrir qué es un ser humano en la carretera y qué no", dijo Aloimonos. "Como resultado, tiene muchas aplicaciones con las que gran parte del público en general ya interactúa, como sistemas de conducción autónoma o incluso cámaras de teléfonos inteligentes. Creemos que nuestro novedoso sistema de cámara está allanando el camino para sistemas más avanzados y capaces en el futuro".
Para obtener más información, comuníquese con Georgia Jiang en Esta dirección de correo electrónico está protegida contra spambots. Necesita activar JavaScript para verlo..
Sensor
- Dominar la integración de sensores en el diseño de bombas médicas
- Imágenes multiespectrales, detección y reflectancia activa (MiDAR)
- Concurso de diseño Create the Future 2019:ganadores de premios y menciones honoríficas
- El nuevo endoscopio sin lentes ofrece imágenes en 3D de estructuras subcelulares sin óptica tradicional
- Cómo hacer la electrónica del mañana usando grafeno impreso con inyección de tinta
- Preguntas y respuestas:la plataforma convierte los auriculares de tontos a inteligentes
- Elevando los vehículos eléctricos de alto rendimiento:el poder de la simulación de baterías
- Circuito de ahorro de energía basado en sensor infrarrojo y en funcionamiento
- NIST crea luz estroboscópica para probar resonadores 5G
- Cómo los robots aprenden a colgar camisetas:el papel crucial de los datos
- Método de etiquetado de células de microscopía adaptado para su uso en imágenes de cuerpo entero