Manufactura industrial
Internet industrial de las cosas | Materiales industriales | Mantenimiento y reparación de equipos | Programación industrial |
home  MfgRobots >> Manufactura industrial >  >> Manufacturing Technology >> Sistema de control de automatización

Investigadores de CMU entrenan drones autónomos utilizando datos simulados intermodales

Para volar de forma autónoma, los drones deben comprender lo que perciben en el entorno y tomar decisiones basadas en esa información. (Vea el video a continuación).

Un método novedoso desarrollado por investigadores de la Universidad Carnegie Mellon permite que los drones aprendan la percepción y la acción por separado.

El enfoque de dos etapas supera la "brecha de la simulación a la realidad" y crea una forma de implementar de manera segura drones entrenados completamente en datos simulados en la navegación del curso del mundo real.

Rogerio Bonatti, estudiante de doctorado en el Instituto de Robótica de la Facultad de Ciencias de la Computación, dice:“Normalmente, los drones entrenados incluso con los mejores datos simulados fotorrealistas fallarán en el mundo real porque la iluminación, los colores y las texturas aún son demasiado diferentes para traducirlos.

"Nuestro módulo de percepción está entrenado con dos modalidades para aumentar la solidez frente a las variabilidades ambientales".

La primera modalidad que ayuda a entrenar la percepción del dron es la imagen. Los investigadores utilizaron un simulador fotorrealista para crear un entorno que incluía el dron, un campo de fútbol y puertas cuadradas rojas levantadas del suelo y colocadas al azar para crear una pista.

Luego crearon un gran conjunto de datos de imágenes simuladas a partir de miles de configuraciones de puertas y drones generadas aleatoriamente.

La segunda modalidad necesaria para la percepción es conocer la posición y la orientación de las puertas en el espacio, lo que los investigadores lograron utilizando el conjunto de datos de imágenes simuladas.

Enseñar el modelo usando múltiples modalidades refuerza una representación sólida de la experiencia del dron, lo que significa que puede comprender la esencia del campo y las puertas de una manera que se traduce de la simulación a la realidad.

Comprimir imágenes para que tengan menos píxeles ayuda en este proceso. Aprender de una representación de baja dimensión le permite al modelo ver a través del ruido visual en el mundo real e identificar las puertas.

Con la percepción aprendida, los investigadores despliegan el dron dentro de la simulación para que pueda aprender su política de control o cómo moverse físicamente.

En este caso, aprende qué velocidad aplicar a medida que navega por el curso y se encuentra con cada puerta. Debido a que es un entorno simulado, un programa puede calcular la trayectoria óptima del dron antes del despliegue.

Este método ofrece una ventaja sobre el aprendizaje supervisado manualmente con un operador experto, ya que el aprendizaje en el mundo real puede ser peligroso, lento y costoso.

El dron aprende a navegar por el curso siguiendo los pasos de entrenamiento dictados por los investigadores. Bonatti dijo que desafía agilidades y direcciones específicas que el dron necesitará en el mundo real.

Bonatti dice:“Hago que el dron gire hacia la izquierda y hacia la derecha en diferentes formas de pista, que se vuelven más difíciles a medida que agrego más ruido. El robot no está aprendiendo a recrear el paso por ninguna pista específica.

"Más bien, al dirigir estratégicamente el dron simulado, está aprendiendo todos los elementos y tipos de movimientos para competir de forma autónoma".

Bonatti quiere impulsar la tecnología actual para acercarse a la capacidad humana de interpretar señales ambientales.

Él dice:"Hasta ahora, la mayor parte del trabajo en carreras de drones autónomos se ha centrado en diseñar un sistema aumentado con sensores y software adicionales con el único objetivo de la velocidad.

"En cambio, nuestro objetivo era crear un tejido computacional, inspirado en la función de un cerebro humano, para asignar información visual a las acciones de control correctas a través de una representación latente".

Pero las carreras de drones son solo una posibilidad para este tipo de aprendizaje. El método de separar la percepción y el control podría aplicarse a muchas tareas diferentes para la inteligencia artificial, como conducir o cocinar.

Si bien este modelo se basa en imágenes y posiciones para enseñar la percepción, se podrían usar otras modalidades, como sonidos y formas, para identificar automóviles, vida silvestre u objetos.

Los investigadores que contribuyeron a este trabajo incluyen a Sebastian Scherer de Carnegie Mellon y Ratnesh Madaan, Vibhav Vineet y Ashish Kapoor de Microsoft Corporation.

El artículo, Aprendizaje de políticas visomotoras para la navegación aérea mediante representaciones multimodales , ha sido aceptado en la Conferencia Internacional sobre Robots y Sistemas Inteligentes 2020.

El código del artículo es de código abierto y está disponible para otros investigadores.


Sistema de control de automatización

  1. El uso de SaaS y la nube requiere una gestión de datos cuidadosa
  2. 10 beneficios de usar Cloud Storage
  3. Transmisión de datos del sensor desde una placa ppDAQC Pi utilizando InitialState
  4. Robot controlado por gestos con Raspberry Pi
  5. Cómo prepararse para la IA utilizando IoT
  6. La tecnología de drones amplía el alcance de IoT móvil
  7. IoT y drones automatizan las operaciones de campo
  8. Qué pueden hacer los drones del futuro
  9. Investigadores crean superfluorescencia utilizando superredes de nanocristales
  10. Drones:UAV compuestos toman vuelo
  11. Cómo hacer que su cadena de suministro de mantenimiento sea más eficaz utilizando datos