Manufactura industrial
Internet industrial de las cosas | Materiales industriales | Mantenimiento y reparación de equipos | Programación industrial |
home  MfgRobots >> Manufactura industrial >  >> Industrial Internet of Things >> Tecnología de Internet de las cosas

Mirando a lo largo del horizonte en busca del cambio radical “inteligente” en IoT

Todos hemos sido inundados con la exageración que rodea a las "cosas inteligentes" de Internet de las cosas y la inminente llegada de nuestros señores robots, por lo que tendemos a minimizar la maravilla alucinante de la metamorfosis informática inteligente y receptiva que se avecina.

Durante años, la comunidad de IoT ha estado diciendo que si realmente queremos que las "cosas" tengan valor, no pueden ser tontas. La primera ola estaba conectando todo, y hemos avanzado allí. El siguiente paso es hacer que las “cosas” sean más inteligentes.

Existe una variedad de soluciones comerciales que realmente no cumplen la promesa de automatizar nuestro camino hacia vidas más productivas. Y las preocupaciones sobre la protección adecuada de nuestras cosas conectadas todavía pesan mucho. Pero realmente ha habido saltos transformadores en la capacidad informática y la funcionalidad alcanzable. El caso de uso definitivo de IoT está en el horizonte, pero antes de definir qué es y describir cómo se manifestará, creo que es importante identificar ampliamente cómo llegamos aquí.

La "Trinidad"

El impacto del movimiento de código abierto en la conducción de saltos exponenciales en el avance tecnológico no se puede minimizar. Los algoritmos y la infraestructura informática que impulsan las cosas "inteligentes" (IoT, inteligencia artificial y capacidades de aprendizaje automático) existen desde hace décadas. Cualquiera de la NSA puede decirte lo mismo.

La diferencia ahora está en la accesibilidad a las masas. Estas tecnologías alguna vez fueron guardadas celosamente, cerradas al mundo en general y solo disponibles dentro de instituciones formidables que poseen vastos recursos tanto en personal como en capacidad de cómputo. El código abierto cambió todo eso. Ya no es necesario construir cosas nuevas desde cero, lo que sobrealimenta el ciclo de innovación. El acceso generalizado a bases de conocimiento y software permite a cualquiera que esté tan inclinado a construir sobre los hombros de gigantes y aprovechar la sabiduría de las multitudes.

La explosión creativa impulsada por el código abierto ayudó a dar lugar a la nube, que es el segundo movimiento responsable de marcar el comienzo de nuestra nueva era de la informática. Liberada de las limitaciones físicas y el gasto de las pilas de servidores individuales y el almacenamiento en las instalaciones, la era de la “aplicación para todo” amaneció y se desató la capacidad de recopilación y consumo bajo demanda de big data. Una vez que pudimos escalar el poder de cómputo sin restricciones geográficas, nuestra tecnología se volvió móvil y el sueño de dispositivos más pequeños y cada vez más poderosos que traficaban en cantidades colosales de información se convirtió en una realidad.

Los macrodatos dan vida a la informática moderna. Pero los datos no hacen cualquier cosa y, en sí mismo, no tiene valor. Esto nos lleva al tercer movimiento de la revolución "inteligente":la analítica. Los tipos de computación aumentada que las personas encuentran en la vida cotidiana ahora (reconocimiento de voz, reconocimiento de imágenes, vehículos autónomos y de asistencia al conductor) se basan en conceptos que surgieron de la analítica y la búsqueda de modelos de analítica predictiva, que estaba de moda. hace unos pocos años.

El descubrimiento desalentador con el análisis predictivo fue que, para entrenar modelos efectivos, se necesitan cantidades masivas de datos y decenas de científicos de datos para construir, mantener y mejorar continuamente los modelos de datos. Una vez más, nos encontrábamos con los obstáculos del acceso y la limitación de recursos.

Y así llegamos al presente, donde las cosas están cambiando en una nueva dirección. La diferencia ahora es que no necesitamos reclutar un ejército de científicos de datos para construir modelos; hemos enseñado a nuestros programas a eliminar algunos de esos obstáculos por sí mismos.

Inteligencia inherente

Nuestros sistemas impulsados ​​por inteligencia artificial, especialmente los sistemas de aprendizaje profundo, ahora pueden recibir millones y millones de conjuntos de entrenamiento, entrenar en días / horas y volver a entrenar continuamente a medida que haya más datos disponibles. Las herramientas de código abierto y la computación en la nube siguen siendo importantes y están evolucionando, y todavía traficamos con una gran cantidad de datos para realizar análisis ultrarrápidos, pero nuestros programas ahora incorporan IA como motor para volverse "más inteligentes".

La experiencia de dominios informáticos muy diferentes se ha consolidado para imbuir a los programas con capacidades previamente inimaginables. La paradoja es que a medida que la nube se vuelve cada vez más poderosa y menos costosa, la estrategia inteligente de IoT es mover gran parte de la primera línea de procesamiento de entrada de la nube al borde. Esto tiene dos propósitos:permitir decisiones en el dispositivo sin necesidad de intervención en la nube y entregar patrones de borde y análisis a la nube para análisis rápidos de segunda etapa. Los pequeños motores de inteligencia artificial ahora pueden realizar análisis casi en tiempo real en dispositivos periféricos y "cosas" no más grandes que una caja de cerillas. Y a medida que estos puntos de poder computacional se vuelven cada vez más comunes en los objetos ordinarios (enrutadores y puertas de enlace inteligentes, vehículos autónomos, dispositivos de monitoreo médico en tiempo real), su funcionalidad potencial se expande exponencialmente.

Inteligencia artificial en el borde

En los primeros días de IoT (también conocido como M2M), la atención se centró en enviar datos a la nube cuando fuera posible. Enviar archivos de registro por FTP todas las noches estaba de moda. Cuando General Electric entró en escena con la "Internet industrial", todo el mundo empezó a hablar sobre la conectividad de datos en tiempo real. Fue un gran salto desde FTP, pero la gente trataba los dispositivos periféricos como simplemente "cosas" que transfieren datos a la nube para su análisis. Ahora estamos en medio de un abanico inverso exponencial fuera de ese pensamiento. Los requisitos en tiempo real están redefiniendo el paradigma. La nube ahora está cambiando a la función de soporte de IoT y análisis de segundo nivel, y el procesamiento se está llevando al límite.

Por ejemplo, hemos estado trabajando con una empresa que desarrolla un dispositivo de monitoreo médico de próxima generación. Inicialmente, asumimos que con un dispositivo tan pequeño, enviaríamos datos sin procesar desde el dispositivo a la nube para su análisis. Pero eso no es lo que se deseaba, ni es lo que sucedió. La empresa quería los análisis en el monitor. Querían que la analítica y la detección de patrones ocurrieran directamente en el dispositivo, para tomar acciones en el dispositivo y que solo se enviaran datos “inteligentes” (en lugar de sin procesar) a la nube. El modelo difería dramáticamente de las operaciones M2M industriales estándar, donde todo estaría conectado y los lotes de datos provenientes de todas las fuentes se recopilarían y procesarían en una línea de tiempo establecida en algún repositorio central.

El propósito de conectarse ahora es obtener resultados instantáneos de precisión en el punto de entrada para obtener respuestas inmediatas. Incluso la baja latencia involucrada en el procesamiento en la nube "tradicional" con cientos de miles, si no millones y miles de millones de dispositivos, no es tan eficiente para el análisis de borde en tiempo real como el uso de esta nueva arquitectura. En algunos casos, puede lograr una reducción de datos de 1,000x simplemente enviando los análisis y los patrones frente a los datos sin procesar a la nube.

Ya no tratamos con dispositivos de recolección tontos; los necesitamos para hacer algo más que comisariar. Deben ser artificialmente (y naturalmente) inteligentes, capaces de realizar análisis y reconocimiento de patrones en sus pequeños motores. Envían esos resultados a la nube para otros usos. A medida que este ideal prolifera, también lo hacen las posibles aplicaciones.

Como está perfectamente plasmado en el ejemplo de un automóvil autónomo, este modelo de análisis de doble borde / nube produce resultados precisos en tiempo real que se pueden refinar de manera continua y automática frente a una cantidad cada vez mayor de más datos. produciendo así información valiosa y utilizable y potenciando la acción productiva. Incluso hace un año, habría llamado a B.S. sobre esta noción de integración generalizada de IoT e IA, pero la informática de punta y la IA realmente han salido del laboratorio y han entrado en nuestro mundo. Producirá resultados que nunca antes habíamos visto.

Los casos de uso definitivos para IoT se manifiestan a través de dispositivos de borde verdaderamente inteligentes, en soluciones que están diseñadas específicamente para problemas o tareas específicas, luego interconectadas y sujetas a patrones que van más allá de su aplicación inicial. A medida que se incorporen más y más "cosas" habilitadas por IA en nuestra vida cotidiana y operen en los límites de nuestras redes de intercomunicación, veremos que las cosas van más allá de la mera conexión y se incorporan activamente a la inteligencia. Ciertamente inteligente.

Este artículo se produjo en asociación con Greenwave Systems.

El autor es vicepresidente y arquitecto de sistemas de ingeniería en Greenwave Systems, donde dirige el desarrollo en el entorno de análisis visual basado en bordes y descubrimiento de patrones en tiempo real AXON Predict. Tiene más de 25 años de experiencia en la ejecución de sistemas empresariales y soluciones avanzadas de análisis visual.


Tecnología de Internet de las cosas

  1. Datos inteligentes:la próxima frontera en IoT
  2. IoT:¿La cura para el aumento de los costes sanitarios?
  3. Perspectivas para el desarrollo de IoT industrial
  4. El potencial para integrar datos visuales con IoT
  5. Los gemelos digitales pueden ser la ventaja inteligente para IoT en el sector de fabricación - Parte 2
  6. Los 3 principales desafíos de preparar datos de IoT
  7. El cerebro operativo:un nuevo paradigma para la gestión inteligente de datos en el IoT industrial
  8. ¿Su sistema está listo para IoT?
  9. Democratizando el IoT
  10. Maximización del valor de los datos de IoT
  11. Es hora de cambiar:una nueva era en el límite