Manufactura industrial
Internet industrial de las cosas | Materiales industriales | Mantenimiento y reparación de equipos | Programación industrial |
home  MfgRobots >> Manufactura industrial >  >> Industrial Internet of Things >> Sensor

Modelo de autoconducción soluciona un problema de tráfico difícil:calles estrechas

Digamos que dos vehículos se dirigen uno hacia el otro por una calle de sentido único.

Si está detrás del volante en este tipo de escenario de conducción complicado y desafiante, puede negociar con las partes cercanas. Puede detenerse a un lado de la carretera y luego indicarle al conductor de adelante que pase por el carril angosto. A través de la interacción, puede descubrir maniobras que mantengan a todos a salvo y en su destino.

Un automóvil autónomo tiene un desafío más difícil y debe comprender de alguna manera a los conductores cercanos y su disposición a jugar limpio.

Un nuevo algoritmo en desarrollo puede guiar a un vehículo autónomo a través del tráfico intenso en una calle estrecha y concurrida.

El algoritmo, creado por investigadores del Centro de IA Argo para la Investigación de Vehículos Autónomos de la Universidad Carnegie Mellon , toma sus decisiones modelando diferentes niveles de cooperación del conductor:la probabilidad de que un conductor se detenga para dejar pasar a otro conductor.

Con el "Aprendizaje de refuerzo de múltiples agentes" o MARL, el equipo, dirigido por el investigador Christoph Killing, logró que los vehículos autónomos exhibieran comportamientos similares a los humanos, incluida la conducción defensiva y la interpretación del comportamiento de otros agentes, en simulación, hasta ahora.

El algoritmo no se ha utilizado en un vehículo en el mundo real, pero los resultados son prometedores, gracias al sistema basado en recompensas del modelo.

"Incentivamos las interacciones teniendo en cuenta la seguridad", dijo Killing, exinvestigador visitante en el Instituto de Robótica de la Facultad de Ciencias de la Computación y ahora forma parte del Laboratorio de Sistemas Aéreos Autónomos de la Universidad Técnica de Múnich.

En una breve sesión de preguntas y respuestas con Tech Briefs a continuación, Christoph explica más acerca de cómo el modelo basado en incentivos de su equipo navega en situaciones difíciles de tráfico, donde no hay reglas oficiales de tránsito.

Resúmenes técnicos: ¿Caracterizaría su modelo como más cooperativo o agresivo cuando se enfrenta a un desafío que requiere un poco de ambos?

El asesinato de Christoph: Como en cualquier escenario de conducción, los vehículos autónomos deben anteponer la seguridad y seguir todas las normas de tráfico. Sin embargo, y esta es la belleza y el desafío del escenario considerado, no existen reglas de tránsito coordinadas en este tipo de escenario (a diferencia de las intersecciones de parada de 4 vías, por ejemplo). Dos vehículos con el mismo derecho de paso tienen que negociar esencialmente quién va primero y quién espera.

Si ambos vehículos se enfocan únicamente en la seguridad, ambos se detendrán. El desafío clave al que nos enfrentamos en nuestra investigación fue:¿Cómo hacemos que un vehículo se detenga y el otro arranque? No hacer que ambos vehículos se detengan, no hacer que ambos vehículos se detengan, cuando cada uno toma sus propias decisiones sin ninguna instancia de coordinación.

Incentivamos las interacciones teniendo en cuenta la seguridad; chocar a gran velocidad es peor que el tiempo de espera, pero los tiempos de espera también resultan en una pequeña penalización para incentivar a los agentes a aprender a interactuar y pasarse entre sí.

Resúmenes técnicos :¿Cuáles son los principales parámetros que utiliza su modelo para ejecutar el impulso? ¿En qué criterios basa el algoritmo sus decisiones?

El asesinato de Christoph :Nuestro algoritmo percibe lo que estaría disponible en un automóvil real. Tenemos mediciones de distancia y velocidad relativa alrededor de la parte delantera del automóvil (vea la Fig. 2 en el informe aquí ). En particular, en comparación con el trabajo relacionado, no utilizamos una vista de pájaro sobre el escenario, sino una perspectiva egocéntrica. Esto lo hace un poco más complicado ya que ahora tenemos puntos ciegos. Esta observación se complementa con otros parámetros, como la cooperación mencionada anteriormente para decirle al agente qué tan agresivo debe comportarse, pero también el ángulo de dirección actual y la posición del acelerador (que también conocería al conducir en este escenario).

Resúmenes técnicos :¿Qué sigue siendo un desafío para que el algoritmo lo haga bien?

El asesinato de Christoph :Hay dos desafíos principales:emparejamientos demasiado agresivos y emparejamientos demasiado pasivos. (Compare las visualizaciones aquí .) En particular, nuestras pólizas pueden negociar el escenario la mayoría de las veces. Sin embargo, los pasajeros humanos pueden estar bastante descontentos con sus autos haciendo algunas de las maniobras que se muestran aquí .

Resúmenes técnicos :¿Qué hace el algoritmo cuando está claro que un conductor contrario está siendo un conductor agresivo y "malo"? ¿O un conductor demasiado “cooperativo”?

El asesinato de Christoph :Ponemos a prueba nuestras políticas de conducción asignando un valor de cooperación a cada vehículo, diciéndole qué tan agresivo debe comportarse. Cada uno solo sabe de su propia cooperatividad, no de la del coche contrario. Estos valores de cooperación se traducen en comportamientos de conducción de una manera bastante directa:un conductor que no coopera solo está interesado en su propio progreso. A un conductor altamente cooperativo no le importa qué vehículo avanza primero, siempre que alguien lo haga. Estos valores son fijos a lo largo de la interacción.

(No consideramos "perder los estribos". No voy a profundizar aquí, pero dejémoslo en "por razones matemáticas".)

Resúmenes técnicos :¿Parte del modelo requiere una especie de "lectura" del conductor contrario?

El asesinato de Christoph :Una palabra sobre la "lectura":en robótica, distinguimos entre el estado del mundo (es decir, el planeta Tierra tal como es ahora) y una observación. Nuestros vehículos no tienen módulo de memoria. Entonces, ¿cómo lidiamos con las cosas que no vemos en este momento?

Más autos sin conductor en resúmenes técnicos

Un sistema de alerta para autos autónomos aprende de las fallas.

El software de la Universidad Técnica de Múnich mantiene a los vehículos autónomos en un camino seguro.

Digamos, por ejemplo, que está en una llamada de Zoom con alguien. Percibes una observación parcial del planeta Tierra por así decirlo. La otra parte toma una taza de café desde fuera del campo de visión de su cámara, toma un sorbo y la vuelve a colocar fuera del campo de visión de su cámara. Si solo tiene en cuenta la última observación que hizo después de que se dejó la taza y se le pregunta qué beben, simplemente no lo sabe (porque no hay memoria). Sin embargo, si apila (lo llamamos "concatenar") varias observaciones a lo largo de los últimos segundos, puede inferir algo sobre el estado del mundo cuando ve que la taza se mueve a lo largo de varios cuadros. En función de la rapidez con la que lo mueven, es posible que incluso puedas saber algo sobre su estado de ánimo.

Del mismo modo, en nuestro escenario, cada automóvil solo conoce al otro agente, en función de lo que puede observar desde el espacio de observación (que se muestra en la Fig. 2. en el artículo ). Los estados internos (el valor de cooperación del otro automóvil, por ejemplo) son desconocidos. Concatenamos varias de esas observaciones parciales de cada vehículo para permitirles formar implícitamente una creencia sobre cuán cooperativo podría ser el otro vehículo. No hacemos esto manualmente, pero tenemos la red neuronal profunda, la inteligencia artificial, que absorbe la tarea. Esta red neuronal también tiene que aprender la respuesta a su pregunta, es decir, qué hacer después de notar cierta agresividad o un comportamiento demasiado cooperativo.

Resúmenes técnicos :¿Cómo nota el modelo un comportamiento "agresivo" o "cooperativo" y responde en consecuencia?

El asesinato de Christoph :Un agente demasiado agresivo podría, por ejemplo, proceder directamente a este cuello de botella del escenario, obligando esencialmente al otro agente a esperar. Un agente demasiado cooperativo, tan pronto como sus sensores perciban la magnitud total del cuello de botella, reduciría la velocidad y esperaría. Aquí nuestra política está entrenada para seleccionar inmediatamente la acción complementaria:detectar una ralentización y seguir, o viceversa.

Resúmenes técnicos :¿Qué sigue para esta investigación?

El asesinato de Christoph :Un montón de cosas:tres puntos principales:en primer lugar, el trabajo actual es un vehículo autónomo confrontado solo con un vehículo autónomo. Tendremos que extender esto a un vehículo autónomo confrontado con un humano y ver qué tan bien lo hacemos cooperando con ellos. En segundo lugar, en nuestro trabajo los vehículos solo pueden avanzar, no permitimos la marcha atrás. Sin embargo, esto podría ayudar a recuperarse de situaciones en las que estamos atascados. En tercer lugar, nuestro trabajo actualmente es solo de simulación. Transferirlo a una solución del mundo real es un paso importante que debemos dar en algún momento.

¿Qué opinas? Comparta sus preguntas y comentarios a continuación.


Sensor

  1. Señal de tráfico
  2. Semáforo inteligente
  3. Intel desplegará 100 vehículos autónomos en todo el mundo antes de fin de año
  4. Descubrimiento de "puntos ciegos" en IA para mejorar la seguridad de los vehículos autónomos
  5. Los vehículos autónomos tienen dificultades para detectar peatones de piel oscura
  6. La nueva IA para vehículos autónomos puede predecir los movimientos de los peatones
  7. Modelo analítico evalúa la capacidad de la batería
  8. Herramienta de simulación de tráfico aéreo
  9. Los sensores eliminan el riesgo de chispas en los vehículos de hidrógeno
  10. Un sistema de advertencia para autos autónomos aprende de las fallas
  11. A medida que los vehículos se vuelven más complejos, ¿qué se debe probar primero?