Manufactura industrial
Internet industrial de las cosas | Materiales industriales | Mantenimiento y reparación de equipos | Programación industrial |
home  MfgRobots >> Manufactura industrial >  >> Industrial Internet of Things >> Sensor

Añadiendo inteligencia perimetral:una entrevista con NXP

Un tema clave hoy en día y claramente cubierto en muchas charlas en el mundo embebido 2021 es la adopción generalizada de la informática de borde para habilitar la inteligencia de borde. Algunas proyecciones esperan que el 90% de todos los dispositivos periféricos utilicen alguna forma de aprendizaje automático o inteligencia artificial para 2025.

¿Cuáles son los problemas relacionados con la habilitación de esta inteligencia perimetral y cómo se logra? Este es el tema de conversación en un podcast reciente con Ron Martino, vicepresidente senior y gerente general del negocio de procesamiento perimetral en NXP Semiconductors. Si bien puede escuchar el podcast completo aquí, presentamos algunos extractos de la discusión en este artículo.

Definición de computación perimetral

En esencia, la informática de borde es la capacidad de un procesamiento eficiente más cerca del usuario. Podemos aportar conocimientos más rápidos a los datos. ¿Puede definir la informática de punta en el contexto de cómo NXP la aborda?

Martino :La computación de borde en pocas palabras es computación local distribuida y capacidad sensorial. Interpreta, analiza y actúa eficazmente sobre los datos del sensor para realizar un conjunto de funciones significativas. No intenta ser un reemplazo o una alternativa a la nube, se vuelve complementario. Clásicamente, en la asistencia por voz, por ejemplo, se envían muchos datos a la nube, donde se utiliza la mayor capacidad informática para mejorar la experiencia. La computación perimetral está evolucionando para volverse más inteligente y luego más inteligente. La informática de borde inteligente equilibra el uso de la informática local con la informática central o en la nube. A medida que esto evoluciona aún más, hay más inteligencia donde queremos que los dispositivos finales tengan más capacidad para realizar la interpretación, el análisis y luego tomar decisiones a nivel local.

¿Puede dar algunos ejemplos de cómo se utiliza la computación en el borde para mejorar la productividad y la seguridad?

Martino :En el caso de la productividad, un gran ejemplo es la fuerza laboral mejorada:aprovechar el procesamiento de borde o los dispositivos portátiles habilitados con visión y aprendizaje automático, donde un trabajador puede diagnosticar un problema y repararlo más rápidamente, ya sea en una casa o en una fábrica. .

Los dispositivos de borde inteligentes mejoran la seguridad al reconocer varias señales peligrosas:al reconocer alarmas, una persona que se ha caído o un vidrio roto, y luego determinan el problema mediante el uso de información y cálculos de sensores adicionales. Ya sea que use dispositivos de detección de radar que NXP está desarrollando, ya sea que use la capacidad de visión o simplemente la interpretación de la entrada de audio en el dispositivo.

Si vamos a una conciencia más ecológica y energética, un concepto que debemos abordar es el del poder de los vampiros, en el que se conectan los dispositivos y no hacen nada más que seguir consumiendo energía.

También nos estamos moviendo hacia un concepto de "borde consciente" donde los dispositivos responden más con un comportamiento similar al humano. Empiezan a comprender su entorno, agregan entradas e interactúan con otros dispositivos para recopilar información y comprender el contexto de la situación, y luego toman decisiones en consecuencia. Un ejemplo práctico simple de esto son los patrones de tráfico con capacidad local que pueden interpretar multitudes y diferentes puntos de congestión y optimizar la situación localmente, al observar y detectar la cantidad de automóviles y las condiciones para hacer que la conducción sea más eficiente y no perder el tiempo.

Las piezas tecnológicas que permiten la inteligencia perimetral

Desde una perspectiva tecnológica, ¿cuáles son las piezas que componen ese borde inteligente y ese borde consciente?

Martino :Comencemos con la base. Necesita tener plataformas informáticas y ellas necesitan escalar. Deben ser energéticamente eficientes. A diferencia del pasado, ahora se trata realmente de múltiples subsistemas informáticos heterogéneos independientes. Eso es básicamente tener una GPU, una CPU, una unidad de procesamiento de red neuronal, una unidad de procesamiento de video y un DSP.

¿Cómo se optimizan estos diferentes aceleradores de hardware y dispositivos informáticos y se optimizan para una aplicación final determinada? Ahí es donde NXP realmente sobresale al tener el rango escalable de cómputo con todos estos otros elementos. Luego está la integración de aceleradores de hardware optimizados o capacidades dirigidas a aplicaciones de voz, interacción hombre-máquina, que involucra visión y voz juntas, y luego hacer esto de una manera en la que realmente involucre fugas ultra bajas con modos operativos que se pueden ajustar a Optimice realmente el uso de energía, incluso con estas grandes memorias en chip, necesarias a medida que observa algunas de las cargas de trabajo.

Esto continúa con la optimización de la capacidad de aprendizaje automático, la integración de la seguridad con los niveles más altos de cobertura para muchas superficies de ataque diferentes, la conectividad eficiente, el uso eficiente de la energía y los estándares abiertos. También puede aprovechar la tecnología que ofrece NXP, como la medición de distancia de alta precisión, ya sea que utilice nuestra tecnología UWB para localizar, de una manera muy precisa, la ubicación física de una persona determinada o dispositivo de seguimiento.

Lo último es envolver todo esto en una experiencia de usuario perfecta porque si no es fácil de usar y no es natural de usar, entonces no se utilizará. Por lo tanto, lograr una experiencia cómoda y fluida en su lugar es absolutamente fundamental.

¿Cómo llega un usuario a crear este tipo de soluciones?

Martino :Ofrecemos de todo, desde una oferta básica de un procesador o un microcontrolador, hasta una plataforma de referencia optimizada previamente para voz local, para la capacidad de visión, detección e inferencia, o la combinación de ambas. Reunimos plataformas de referencia que un cliente puede comprar, como nuestra familia de dispositivos RT. Tenemos una oferta de reconocimiento facial que se puede comprar, y eso es un sistema totalmente habilitado y diseñado que un cliente puede tomar como punto de partida para modificar sus necesidades donde quiere especializarse o donde quiere poner su marca.

Diferencias tecnológicas en casos de uso industrial y de consumo

La mayoría de la industria estará de acuerdo en que los dispositivos y sistemas inteligentes en nuestros hogares y en el trabajo están ganando terreno. ¿Cuáles son algunas de las diferencias tecnológicas entre el viejo y simple IoT, como diría, y los mercados industriales?

Martino :Los estándares de conectividad, los requisitos ambientales, las necesidades de longevidad (que pueden ser de más de 15 años) y los requisitos de seguridad son mucho más extensos y exigentes en el espacio industrial cuando se compara con el mundo de IoT [consumidor]. Un área en la que NXP está invirtiendo es la red sensible al tiempo (TSN) y la integración de Mac y conmutadores en un conjunto completo de dispositivos que pueden admitir configuraciones en cadena de múltiples máquinas, trabajar y admitir funciones de punto final, aprovechando esto más determinista. Red troncal de TSN, que también admite velocidades de datos y rendimiento mucho más altos en los que convergen muchos de los estándares heredados.

Compare esto con los mercados de IoT [de consumo]. Existe una necesidad mucho más amplia de eficiencia energética extrema, un mayor uso de HMI de voz, conectividad inalámbrica y un ciclo de vida más corto para aplicaciones como hogares inteligentes y dispositivos portátiles. En el frente de los dispositivos portátiles, desea una excelente experiencia de usuario, pero desea la mayor duración de la batería. La optimización de estos dispositivos periféricos para realizar sus funciones, pero luego apagarse y preservar la duración de la batería es muy importante, y esa experiencia de usuario realmente rica debe realizarse de la manera más eficiente, porque ese es el momento en que se está quemando la batería.

El desafío de la interoperabilidad

En el área del hogar inteligente, a menudo es difícil tomar un producto de una empresa y hacer que funcione también con otros dispositivos. ¿Cómo intenta NXP cambiar ese desafío de interoperabilidad inalámbrica de hogares inteligentes?

Martino :Mirando los dispositivos domésticos inteligentes como ejemplo, los estándares y la capacidad de interoperabilidad están muy fragmentados. Tenemos un proyecto llamado CHIP, o proyecto de estándares “Connected Home over IP”. Tiene a NXP, así como a otros líderes de la industria, trabajando juntos para tratar de consolidar, no a un estándar propietario, sino a un estándar abierto común en toda la industria, y permite a las personas construir sobre este estándar abierto.

El enfoque de este proyecto es aprovechar los muchos años de trabajo que NXP y otros han realizado en torno a ZigBee, Thread y ZigBee Alliance, y luego construir sobre eso con una capacidad de capa superior, aprovechando las tecnologías que Amazon, Apple, y los de Google se han lanzado para construir este estándar abierto al que nos referimos como CHIP, y establecer este vínculo común entre dispositivos. Cuando conecte algo, será muy fácil de conectar.

El plan de NXP es tener productos reales en el mercado a finales de este año, con las primeras versiones del estándar CHIP.

Abordar la complejidad y el costo de agregar inteligencia perimetral

Pasando al aprendizaje automático y la inteligencia artificial en el borde. Todo suena bastante complejo y costoso, ¿verdad?

Martino :Para muchos, cuando se habla de IA y ML, es un concepto abstracto muy complejo. Hay proyecciones de que el 90% de todos los dispositivos periféricos utilizarán alguna forma de aprendizaje automático o inteligencia artificial para 2025. Realmente creemos que ese es el caso y estamos lanzando productos optimizados en torno a esto. Es una combinación de lo que hacemos para optimizar el hardware que se utiliza, los procesadores y los microcontroladores para ejecutar esta capacidad. Para el usuario final, se trata más de lo complejo que es implementar un AA práctico que sea significativo para el caso de uso final.

Hay muchas empresas que quieren recopilar datos y crear sus propios modelos. En lo que se centra NXP es, ¿cómo habilitamos una capacidad independiente de la nube que permita flexibilidad en una interfaz de usuario simple o en un entorno de desarrollo?

Eso es lo que anunciamos recientemente con nuestras inversiones con Au-Zone, y en 2021 implementaremos un entorno de desarrollo mejorado donde puede elegir el tipo de contenido que trae. Sus propios datos, modelos que tiene o modelos que usted ha elegido adquirir a través de su fuente favorita o proveedor de nube, y traerlo, y luego optimizarlo e implementarlo en el dispositivo final. Porque es esa optimización.

¿Cómo aumenta el aprendizaje automático el costo de la solución final?

Martino :Si tiene un modelo o capacidad de aprendizaje automático muy complejo y pesado, eso requerirá una capacidad computacional mucho mayor, y cuanto mayor sea la capacidad computacional, más costoso será. Puede optar por hacerlo en un procesador de borde o puede optar por implementarlo en una nube. Cuando intentamos ajustar estos casos de uso o estos modelos para un caso de uso específico, puede volverse muy eficiente y luego puede aprovechar el escalado de la tecnología tradicional y la ley de Moore para agregar realmente aceleración de hardware específica para ML, que no requiere mucha área de silicio.

Se convierte en un sumador de costos pequeño, pero con una capacidad muy óptima para realizar ese trabajo dado que desea. Ya sea detectando personas e identificando quiénes son localmente, por ejemplo, ahora puede hacerlo de manera muy eficiente en un microcontrolador, que está optimizado con una implementación de silicio muy, muy eficiente. Luego, también puede hacerlo escalable con algunos de nuestros procesadores, donde puede escalar a un procesador externo de red neuronal de mayor rendimiento, o trabajar de manera complementaria con la nube. Nuevamente, todos tienen un costo para ellos y depende de la complejidad de la tarea, pero puede ser muy eficiente para una capacidad muy compleja que puede implementar.

IA ética

Existe una creciente preocupación por los sesgos en los modelos de AA y la IA. ¿Cuál es el papel de la industria para ayudar a garantizar una IA ética?

Martino :Necesita una clara transparencia de operación, ya sea que se trate de conceptos simples sobre "Quiero saber si me está escuchando o mirándome", pero también, cómo está determinando su conclusión para luego tomar una acción se vuelve muy importante. Estándares de seguridad para asegurarse de que los sistemas sean seguros y no tengan acceso por la puerta trasera u otras sensibilidades o vulnerabilidades en términos de su superficie de ataque, de modo que alguien pueda acceder a un sistema de IA y luego influir en él para hacer ciertas cosas o tomar ciertas decisiones que puede ser favorable para la persona que está atacando el sistema.

¿Cómo se implementan los sistemas de IA que no tienen un sesgo preestablecido que, desde una base de principios, es incorrecto? En NXP, lanzamos una iniciativa de ética de IA, que subraya nuestro compromiso con este desarrollo ético. Dentro de eso, hablamos de ser bueno, hablamos de preservar la IA centrada en el ser humano, que en realidad se trata de evitar la subordinación o coerción por parte de un sistema de IA, así como esta transparencia, los altos estándares de excelencia científica, así como la confianza. en sistemas de IA.

¿Qué desafíos cree que persisten con la implementación de la tecnología de punta?

Martino :Esta es una actividad en curso y hay muchas áreas para una optimización continua. La eficiencia energética, la conducción y el aprovechamiento de los conceptos de recolección de energía y el funcionamiento cercano al umbral de los dispositivos es una inversión continua de muchos en la industria. La seguridad y la necesidad de proteger los datos y continuar avanzando es una actividad continua.

Inversiones en firmas específicas de silicio y diferentes tipos de criptografía, y formas de realizar la informática de forma protegida como el cifrado homomórfico, realizar cálculos en un entorno cifrado y nunca descifrarlo. Luego, extendiendo eso en torno a la conectividad del rendimiento en los requisitos de latencia, así como el consumo de energía. Para optimizar eso, continuaremos optimizando la conectividad y lo llevaremos a estos dispositivos periféricos de formas cada vez más eficientes.

Finalmente, todo este concepto de inteligencia final consciente, estamos en una tercera generación de desarrollo e implementación de procesadores o subsistemas de redes neuronales que van a nuestros procesadores. Eso está impulsando mejoras en la eficiencia y la escala, pero hay una investigación continua en esta área en términos de impulsar niveles más altos de eficiencia con aceleradores y diferentes tecnologías alrededor de redes neuronales de picos, así como IA cuántica. A corto plazo, claramente, veremos una evolución continua en torno a los aceleradores más tradicionales y la integración de estos en estos procesadores escalables que NXP está trayendo al mercado.

Aquí puede escuchar el podcast completo de 27 minutos, "Empowering the edge anywhere".


Sensor

  1. ¿Por qué Edge Computing para IoT?
  2. Advantech lleva la computación acelerada desde la nube al borde con NVIDIA
  3. MicroSys:Informática Edge integrada con CPU NPX LS1028A e IEEE TSN
  4. Edge computing:la arquitectura del futuro
  5. Computación perimetral:5 trampas potenciales
  6. Actualización de Industry 4.0 con análisis de borde
  7. Avanzando en Edge Computing, la IIC se une a OpenFog
  8. Arquitectura Edge Computing destacada en HPE Discover
  9. Beneficios del Edge Computing para la cristalización de la IA
  10. Evolución de la Automatización de Pruebas con Inteligencia Artificial
  11. Comprensión de Edge Computing y por qué es tan importante