Manufactura industrial
Internet industrial de las cosas | Materiales industriales | Mantenimiento y reparación de equipos | Programación industrial |
home  MfgRobots >> Manufactura industrial >  >> Industrial Internet of Things >> Tecnología de Internet de las cosas

Las tecnologías clave potencian el papel cada vez mayor de la visión integrada

La tecnología de visión incorporada pronto tocará casi todos los aspectos de nuestra vida diaria, pero ¿cuál es el estado de la tecnología que ya está en uso? ¿Qué papel juega la IA en la actualidad? ¿Qué está sucediendo en el borde y en la nube? Estas preguntas fueron el tema central del panel de discusión sobre el tema de tendencia "Embedded Vision" en el mundo embebido 2021.

Impulsada por los avances en sensores, procesadores y software, la visión integrada va a todas partes, desde la agricultura hasta las fábricas, y desde los vehículos autónomos hasta los deportes profesionales. Incluso la pandemia de Covid-19 ha servido para acelerar su despliegue con sistemas de visión que se utilizan en aplicaciones como vigilancia pública, inspección de salud y seguridad.

Visión integrada habilitada por IA

La inteligencia artificial (IA) está ganando impulso en las aplicaciones integradas de procesamiento de imágenes y visión a medida que los desarrolladores aplican cada vez más el aprendizaje profundo y las redes neuronales para mejorar la detección y clasificación de objetos.

No hay duda de que la IA abre nuevas posibilidades, pero los panelistas coincidieron en que tiene que ser más fácil de usar. "Por un lado, hay muchos beneficios desde la perspectiva de los clientes", dijo Olaf Munkelt, director gerente de MVTec Software. “Por otro lado, la tecnología de IA es un poco torpe. Tenemos que hacer que sea más fácil de usar, para permitir que los clientes de visión incorporada lleguen rápidamente al punto en el que ven un valor agregado. Esto tiene que ver con todos los pasos en el flujo de trabajo de los sistemas basados ​​en inteligencia artificial, desde el etiquetado de datos, la inspección de datos, la gestión de datos hasta el procesamiento utilizando diferentes tecnologías como la segmentación semántica, la clasificación y la detección de anomalías ". Munkelt pidió un enfoque integrado para facilitar a los clientes la implementación de un proyecto de visión integrado.

Compartiendo una visión similar, Fredrik Nilsson, jefe de la unidad de negocios, Machine Vision, en Sick, señaló que la inteligencia artificial y el aprendizaje profundo tienen la capacidad de resolver tareas que son difíciles de resolver con el procesamiento de imágenes convencional basado en reglas. Sin embargo, el aprendizaje profundo no reemplazará al procesamiento de imágenes convencional. Ambas tecnologías coexistirán una al lado de la otra "durante mucho tiempo", argumentó. “Definitivamente hay aplicaciones en las que los [algoritmos de procesamiento de imágenes] basados ​​en reglas son más aplicables que el aprendizaje profundo. Podemos ver soluciones híbridas, por ejemplo, haciendo segmentación de objetos con aprendizaje profundo y aplicando herramientas de medición ”.

Se está llevando a cabo una carrera en el lado del hardware del acelerador de inteligencia artificial, dijo Munkelt. De hecho, muchas empresas emergentes están creando "hardware realmente interesante", que a veces "funciona de 10 a 20 veces mejor que el hardware de GPU existente de proveedores establecidos". De cara al futuro, indicó lo importante que sería la velocidad para procesar datos de imágenes. "Todos en nuestra comunidad de visión están mirando estos aceleradores de IA porque pueden proporcionar un gran beneficio".

¿Qué sucede en el borde? ¿Qué sucede en la nube?

Estas preguntas, planteadas al proveedor de la nube AWS, sugieren la respuesta. A menos que sea más sutil de lo que pensamos.

AWS persigue dos objetivos en lo que respecta a la visión integrada. El primero, dijo Austin Ashe, director de asociaciones estratégicas de OEM, IoT, en Amazon Web Services (AWS), es reducir la barrera de entrada para los clientes que deseen adoptar una visión integrada por primera vez o aquellos que deseen expandirla y escalarla. . El segundo es "ofrecer valor más allá del caso de uso inicial".

“En cuanto a reducir la barrera de entrada, reconocemos que el 75% de las empresas planean pasar de implementaciones piloto a implementaciones operativas completas en los próximos dos a cinco años. Nos estamos posicionando para orquestar el borde y la nube de una manera única ". Explicó además, “Edge es extremadamente importante cuando se trata de aspectos como latencia, ancho de banda, costo de transmisión de datos, incluso la seguridad y la seguridad entran en juego. Lo que puede hacer la nube es bajar la barrera de entrada aquí. Podemos monitorear dispositivos, ya sea un dispositivo o una flota de ellos, y brindar alertas o mecanismos en tiempo real para comprender qué están haciendo esos dispositivos ". Estos dispositivos, continuó Ashe, se pueden actualizar por aire. Por lo tanto, al administrar sistemas de visión integrados a escala, es posible tomar un modelo, entrenarlo en la nube y luego implementarlo por aire en todas las máquinas que lo necesiten.

Es posible que las empresas no tengan los científicos de datos o el dinero para construir el modelo. Para Ashe, bajar la barrera de entrada significa hacer posible tomar de diez a doce imágenes de una anomalía y subirlas a la nube. “Inmediatamente, obtienes un modelo de detección de anomalías que detecta esa anomalía exacta. Luego, itera en ese modelo, de la nube al borde ".

En el mundo integrado de este año, Basler y AWS explicaron cómo cierran la brecha entre el borde y la nube a través de una colaboración que cubre los servicios de AWS "AWS Panorama" y "Amazon Lookout for Vision". AWS Panorama es un dispositivo de aprendizaje automático (ML) y un SDK que brinda a los clientes la capacidad de tomar decisiones en tiempo real para mejorar las operaciones, automatizar el monitoreo de las tareas de inspección visual, encontrar cuellos de botella en los procesos industriales y evaluar la seguridad de los trabajadores dentro de las instalaciones. Amazon Lookout for Vision es un servicio de aprendizaje automático que detecta defectos y anomalías en las representaciones visuales mediante la visión por computadora.

Cuando se le preguntó si la visión integrada puede resolver tareas críticas en el tiempo en la nube, Ashe dijo que se utilizará cada vez más el borde a medida que las aplicaciones deben moverse más cerca del usuario y de la experiencia. “Dondequiera que existan requisitos de latencia, el borde será la prioridad número uno, pero si considera algunas de las redes de alta velocidad que se están conectando, especialmente las relacionadas con 5G, eso crea una oportunidad completamente nueva para que la nube y el borde tengan una una interoperabilidad más estrecha y más casos de uso de vanguardia para la nube ”.

Complejidad, tamaño, costo

De cara a los próximos años, los panelistas enumeraron áreas de mejora para permitir una adopción más amplia de los sistemas de visión integrados.

Complejidad :“Con el antiguo sistema de PC, compraste tu cámara, compraste tu hardware, tenías un procesador y el software se estaba ejecutando en el procesador”, dijo Arndt Dake, CMO de Basler. Hoy, sin embargo, “el procesamiento no es un solo procesador. Tienes una CPU, una GPU, tienes un hardware especial para AI, tal vez un ISP en el SoC. Entonces, en lugar de uno, tiene cuatro recursos de hardware y necesita asignar el software a estos cuatro recursos ". Los sistemas se están volviendo más complejos y los clientes están luchando con la complejidad cada vez mayor. Para fomentar la penetración, se debe demostrar la utilidad y se debe abordar la usabilidad. Actualmente, algunas empresas están tratando de unir las piezas y hacerlo más fácil para los clientes, porque "cuanto más fácil será, mayor será la tasa de adopción y mayor será el uso de esa tecnología", dijo Dake.

Tamaño :¿Hemos llegado a un estado estable en términos de tamaño? No, respondió Dake. “Se hará más pequeño. Si abre su teléfono inteligente y observa el procesamiento y la funcionalidad de la cámara, puede ver lo pequeñas que pueden llegar a ser las cosas. El teléfono inteligente será nuestro punto de referencia ".

Costo :Desde una perspectiva general, "se trata de dinero", dijo Munkelt. Hoy en día, algunas aplicaciones no están justificadas porque los precios son demasiado altos. Si el costo baja, surgirán nuevas posibilidades.

Con una mayor facilidad de uso, precios más bajos y dispositivos más pequeños que se adaptan a las maquinarias existentes, la visión integrada será más accesible para las empresas más pequeñas que no han utilizado la visión integrada antes, concluyó Nilsson.

>> Este artículo se publicó originalmente el nuestro sitio hermano, EE Times Europe.


Tecnología de Internet de las cosas

  1. VersaLogic lanza computadoras de clase servidor para aplicaciones integradas
  2. La recolección de energía de RF encuentra un papel cada vez mayor en las aplicaciones impulsadas por IA
  3. La IP SRAM incorporada consume un 50% menos de energía
  4. ROHM:tecnologías avanzadas de gestión de energía y sensores en Embedded World 2019
  5. ADI muestra tecnologías para cada área del diseño de sistemas integrados
  6. Infineon lanza la serie de energía integrada TLE985x para aplicaciones automotrices
  7. TDK muestra sus productos destacados para tecnologías integradas
  8. USB-C encuentra un papel cada vez mayor en los wearables y los productos móviles
  9. congatec:nuevas tecnologías de servidor de borde integrado para el sector energético
  10. La demanda crece rápidamente para gemelos digitales e inteligencia artificial en la automoción, la generación de energía y la aviación, dice el CDO de GE
  11. La infraestructura de red es clave para los automóviles sin conductor