El filtro mejora la visión robótica en la estimación de pose 6D
Los robots son buenos para realizar movimientos repetitivos idénticos, como una tarea simple en una línea de montaje. Pero carecen de la capacidad de percibir objetos a medida que se mueven por un entorno. Investigadores de la Universidad de Illinois en Urbana-Champaign, NVIDIA, la Universidad de Washington y la Universidad de Stanford realizaron un estudio reciente sobre la estimación de poses de objetos 6D para desarrollar un filtro que les dé a los robots una mayor percepción espacial, para que puedan manipular objetos y navegar. a través del espacio con mayor precisión.
Mientras que la pose 3D proporciona información de ubicación en los ejes X, Y y Z (ubicación relativa del objeto con respecto a la cámara), la pose 6D brinda una imagen mucho más completa. Al igual que describir un avión en vuelo, el robot necesita conocer las tres dimensiones de la orientación del objeto:guiñada, cabeceo y balanceo. En entornos de la vida real, las seis dimensiones cambian constantemente.
El filtro fue desarrollado para ayudar a los robots a analizar datos espaciales. El filtro analiza cada partícula o parte de la información de la imagen recopilada por las cámaras dirigidas a un objeto para ayudar a reducir los errores de apreciación.
En un marco de estimación de poses 6D basado en imágenes, un filtro de partículas utiliza muestras para estimar la posición y la orientación. Cada partícula es como una hipótesis:una conjetura sobre la posición y la orientación que requiere estimación. El filtro de partículas utiliza la observación para calcular el valor de importancia de la información de las otras partículas y elimina las estimaciones incorrectas.
Previamente, no había ningún sistema para estimar la distribución completa de la orientación del objeto. Esto proporciona información importante sobre la incertidumbre para la manipulación de robots. El nuevo filtro utiliza el seguimiento de poses de objetos 6D en el marco de filtrado de partículas Rao-Blackwel-lized, donde la rotación 3D y la traslación 3D de un objeto están separadas. Esto permite que el nuevo enfoque, llamado PoseRBPF, calcule de manera eficiente la traslación 3D de un objeto junto con la distribución completa sobre la rotación 3D. Como resultado, Pose-RBPF puede rastrear objetos con simetrías arbitrarias mientras mantiene distribuciones posteriores adecuadas.
Para obtener más información, comuníquese con Lois Yok-soulian en Esta dirección de correo electrónico está protegida contra spambots. Necesita habilitar JavaScript para verlo.; 217-244-2788.
Sensor
- ¿Cuál es la realidad de la visión del robot?
- ¿Qué es un filtro?
- Seguimiento automático de objetos por visión
- Un robot móvil con evitación de obstáculos basada en la visión
- La inteligencia artificial ayuda al robot a reconocer objetos al tacto
- Omrons TM Cobot acelera la integración y la programación
- Ingenieros de Stanford crean un robot parecido a un pájaro posado
- Robots de guía manual
- Robot autónomo abre puertas
- El servomovimiento mejora las operaciones de los robots
- El robot accionado por aire no necesita componentes electrónicos