Manufactura industrial
Internet industrial de las cosas | Materiales industriales | Mantenimiento y reparación de equipos | Programación industrial |
home  MfgRobots >> Manufactura industrial >  >> Industrial Internet of Things >> Tecnología de Internet de las cosas

Por qué la computación perimetral es tan crucial para IIoT

Michael Schuldenfrei de OptimalPlus

La invención de la placa de circuito impreso (PCB) en la década de 1950 cambió el mundo de la automatización. Antes de la PCB, las placas de circuitos electrónicos se ensamblaban exclusivamente a mano, un proceso laborioso que limitaba enormemente la producción mundial.

Hoy, dice Michael Schuldenfrei, miembro de tecnología corporativa de OptimalPlus , la industria está experimentando otro salto revolucionario con la introducción de la instrumentación en el proceso de fabricación y el uso de la informática de punta.

La instrumentación del proceso de fabricación involucra numerosos sensores y microcontroladores que pueden alterar sutilmente las condiciones de fabricación en respuesta a las condiciones ambientales detectadas por los sensores. Estos sensores producen grandes cantidades de datos, pero los microcontroladores no pueden responder directamente a los datos producidos.

Tanto los sensores como los microcontroladores utilizados en la fabricación de instrumentación son básicamente pequeñas computadoras en red. Los sensores envían sus datos a una ubicación central donde luego se analizan los datos. Estas pequeñas computadoras autónomas no son monitoreadas por humanos en tiempo real y son parte del Internet de las cosas (IoT). Más específicamente, en un contexto de fabricación, son dispositivos de IoT industrial (IIoT).

Caso de uso de IIoT para instrumentación de fabricación

Los dispositivos IIoT se utilizan en una variedad de contextos para realizar trabajos que serían difíciles, si no imposibles, para que los humanos los hicieran de manera confiable y / o precisa en todo momento. Considere, por ejemplo, la inspección de soldaduras. La soldadura es una parte integral de muchas líneas de producción de productos electrónicos y es fundamental para la funcionalidad y durabilidad del producto final.

Desafortunadamente, se les pide a los fabricantes que realicen soldaduras en componentes cada vez más pequeños, con restricciones cada vez más estrictas. Para proteger los componentes, las soldaduras deben realizarse con el menor calor posible y con la menor carga eléctrica posible.

Los dispositivos IIoT que pueden ayudar a refinar este proceso incluyen sensores de calor, voltaje y presión para ayudar a determinar el amperaje mínimo necesario para realizar una soldadura en las condiciones ambientales actuales. Las cámaras IIoT también pueden alimentar sistemas de inspección visual de soldaduras basados ​​en aprendizaje automático para verificar que las soldaduras sean satisfactorias, incluso cuando son demasiado pequeñas para que el ojo humano las vea; y esto es solo para empezar.

La instrumentación de fabricación puede hacer que cualquier fabricación, no solo la fabricación de productos electrónicos, sea más precisa, con menos errores de producción y requiriendo menos personas involucradas. Desafortunadamente, esta instrumentación no es fácil, especialmente dadas las complejidades de la cadena de suministro de fabricación moderna.

Activación de la función de instrumentación de fabricación

Los equipos de tecnología de la información (TI) han estado haciendo uso de la instrumentación durante décadas. No cuesta tanto construir sensores en el software como lo hace en el hardware. Como resultado, los sistemas operativos, las aplicaciones y los equipos de TI de todo tipo están absolutamente llenos de sensores. Debido a esto, los equipos de TI han estado luchando con la cantidad de datos que producen desde antes de que existiera la microcomputadora moderna.

Tantos datos, tan poco tiempo

En el mundo real, cualquier infraestructura instrumentada produce mucha más información de la que un solo ser humano puede procesar. No se puede esperar que incluso grandes equipos de humanos revisen todos los datos emitidos incluso por una modesta infraestructura de TI. Existen disciplinas completas dentro del campo de las TI dedicadas a hacer comprensibles los datos emitidos por la instrumentación de TI. Las tecnologías y técnicas van desde filtros simples hasta sofisticadas técnicas de inteligencia artificial (IA) y aprendizaje automático (ML).

Hasta hace poco, esto era lo suficientemente bueno para la mayoría de los equipos de TI. La información se recopilaría y enviaría a una ubicación central, se procesarían números y solo se enviarían los datos importantes a los administradores de sistemas. Si esto tomó unos segundos o minutos, estaba bien; una breve interrupción de TI fue generalmente aceptable.

Pero a medida que las organizaciones de todo el mundo se volvieron cada vez más dependientes de su TI, la cantidad aceptable de tiempo que se tardaba en actuar sobre la instrumentación disminuyó significativamente. Para muchas organizaciones, el tiempo de reacción aceptable en la actualidad está muy por debajo de lo que podría lograr un ser humano. Por lo tanto, los sistemas de TI modernos en las organizaciones más avanzadas utilizan potentes conjuntos de inteligencia artificial y aprendizaje automático para que su infraestructura de TI reaccione a los cambios informados por los datos del sensor antes de que los administradores humanos se den cuenta de que existe un problema.

Los fabricantes modernos, como podría imaginarse, buscan soluciones de instrumentación de fabricación que también sean capaces de reaccionar más rápido que un humano. Si bien leer sensores y decirles a los humanos que se ha desarrollado un problema es útil, no es tan útil como responder a los datos de los sensores en tiempo real.

Instrumentación de TI frente a instrumentación de fabricación

La diferencia entre los dos es que la instrumentación de TI es comparativamente fácil:uno recopila datos sobre la infraestructura de TI y las aplicaciones de dispositivos que ya son completamente digitales. La instrumentación de fabricación es más desafiante. Los dispositivos IIoT utilizados en la fabricación de instrumentación recopilan datos sobre el mundo físico. Esto significa recopilar datos analógicos y convertirlos en digitales, y eso es otro juego de pelota. Los sensores físicos deben calibrarse y, con el tiempo, se desgastan. Los sensores físicos también se implementan normalmente en clústeres para que sea posible la detección de quórum.

La detección de quórum utiliza varios sensores independientes para compensar la desviación de la calibración o el mal funcionamiento del sensor. Si un sensor en un grupo informa datos que difieren de sus socios, se puede ignorar y / o marcar para recalibración. Esto permite que la fabricación continúe con sensores buenos conocidos hasta que se pueda recalibrar o reemplazar el defectuoso.

Las complicaciones de la detección analógica, combinadas con el requisito apremiante de capacidad de respuesta en tiempo real a los datos de los sensores, presentan desafíos del mundo real para la instrumentación de fabricación.

¿La computación en la nube no puede arreglar todo?

Los equipos de TI han tenido que lidiar con muchos requisitos computacionales diferentes y difíciles. Un ejemplo de una solución desarrollada por proveedores de TI es la computación en la nube.

Computación en la nube y BDCA

La computación en la nube permite a las organizaciones acceder a una infraestructura de TI aparentemente ilimitada con solo presionar un botón. Si bien las razones detrás de la computación en la nube son numerosas y complejas, quizás la más importante es que la computación en la nube permite a los equipos de TI operar cargas de trabajo de TI sin tener que administrar o mantener la infraestructura de TI subyacente. El proveedor de la nube se encarga de esa parte por ellos.

La computación en la nube ha demostrado ser muy útil para cargas de trabajo de análisis computacional de datos a granel (BDCA). Hay muchos tipos de cargas de trabajo de BDCA, que incluyen IA, ML, Big Data y más; Todo aquello en lo que se recopilen grandes cantidades de datos y posteriormente deban analizarse es una carga de trabajo de la BDCA. En los últimos años, la computación en la nube ha sido el destino de la mayoría de los nuevos proyectos de BDCA.

Una de las razones por las que se utiliza la computación en la nube para las cargas de trabajo de BDCA es el concepto de explosión en la nube. Las cargas de trabajo en la nube, como las cargas de trabajo de computación que se utilizan para analizar grandes conjuntos de datos, se pueden generar solo según sea necesario y en la escala que se requiera. Esto se adapta bien a las cargas de trabajo de BDCA porque la mayoría de las cargas de trabajo de BDCA solo necesitan generar análisis en un horario establecido. Los informes de fin de mes son un caso de uso popular aquí.

Desafortunadamente, la economía de escala significa que las nubes públicas tradicionales están ubicadas en el centro. Esto permite a los proveedores de nube pública ubicar sus centros de datos donde los costos son más bajos y simplemente construir centros de datos realmente grandes. Si bien esto es útil para cargas de trabajo BDCA de estilo de trabajo por lotes que se ejecutan en horarios, es menos que útil para cargas de trabajo que requieren capacidad de respuesta en tiempo real.

Para solucionar esto, se desarrolló la informática de punta.

Computación perimetral

La computación perimetral se puede considerar como computación en la nube, pero en el centro de datos de otra persona. La computación perimetral evolucionó porque los equipos de TI tenían cargas de trabajo que requerían una capacidad de respuesta de baja latencia que la computación en la nube pública tradicional no podía proporcionar. Los equipos de TI eran perfectamente capaces de crear este tipo de infraestructuras, pero simplemente no querían la carga y la molestia de lidiar con ellas ellos mismos.

Satisfacer nuevas demandas de datos

Después de una reunión de mentes, se decidió que para satisfacer las necesidades de estos clientes, los proveedores de nube pública instalarían servidores en los centros de datos de las organizaciones relevantes. Esto permitió a los equipos de TI de esas organizaciones ejecutar cargas de trabajo en lo que, para ellos, parecía idéntico a una región creada solo para ellos por el proveedor de nube pública, pero que estaba ubicada en la misma red de área local (LAN) que el resto de sus cargas de trabajo. .

Estos servidores de "computación periférica" ​​permiten que los datos de los sensores de IoT se procesen y se actúe sobre ellos mucho más rápido de lo que sería posible si esos datos tuvieran que atravesar Internet hasta un centro de datos en la nube pública, procesarse y luego hacer que los resultados viajen de regreso a través de Internet. . La informática de punta está habilitando una serie de nuevas tecnologías, incluidos los automóviles sin conductor.

Caso de uso:datos en tiempo real para automóviles sin conductor

Los automóviles sin conductor son un gran ejemplo de una tecnología en la que esperar los datos no es una opción. La computación en la nube podría ayudar a los automóviles sin conductor al recopilar información de sensores para todos los automóviles en un área determinada, procesar los datos y enviar a esos automóviles un mapa de dónde se encuentran todos y todo dentro de un radio determinado. Esto podría permitir que estos autos vean literalmente en las esquinas, haciéndolos aún más seguros.

Sin embargo, incluso a la velocidad de la luz, enviar información desde un automóvil a la nube pública y viceversa puede demorar hasta un cuarto de segundo. Las personas pueden morir en un cuarto de segundo cuando hay automóviles involucrados. Por lo tanto, acercar el procesamiento a los automóviles, por ejemplo, ubicando los servidores relevantes dentro de unas pocas cuadras de donde los automóviles intentarán navegar en entornos urbanos complicados, puede habilitar tecnologías que de otro modo no serían posibles.

De la misma manera, la fabricación puede hacer uso de la informática de punta para habilitar la instrumentación necesaria. Sin embargo, como suele ser el caso, la fabricación tiene sus propios giros y vueltas que no solo hacen que la computación de borde sea más crítica para el proceso, sino que también presenta varios desafíos que deben superarse.

¿Por qué utilizar la informática de punta en la fabricación?

Un argumento común sobre la relevancia de la informática de punta para las empresas de fabricación gira en torno a la necesidad de capacidad de respuesta en tiempo real. Cuando se trata de mantener los defectos de fabricación cerca de cero en una línea de producción de rápido movimiento, es útil poder hacer uso de grupos de sensores. Un grupo de sensores puede detectar el quórum si un sensor individual está defectuoso y luego recalibrar. Sin embargo, la recalibración debe realizarse muy rápidamente para evitar interrumpir la línea de producción.

Si se necesitan 100 o 250 milisegundos para enviar los datos del sensor a través de Internet, los productos en la línea podrían perderse o el equipo podría dañarse. Pero si los datos se pueden procesar localmente, en aproximadamente cinco milisegundos, los fabricantes pueden recalibrar los sensores en tiempo real y / o alterar la configuración del equipo de fabricación en respuesta a las condiciones ambientales.

Sobrecarga del sensor

Otra razón detrás de la utilidad de la computación en el borde que no se discute con tanta facilidad es que puede haber una cantidad inmanejable de sensores involucrados en la instrumentación de fabricación. Esto no solo puede abrumar la capacidad de la red, sino que también puede producir una gran colección de datos, que no es necesaria en su totalidad. Por lo tanto, es útil examinar los datos antes de reenviar solo los que deben enviarse.

Es común que los volúmenes de datos sean abrumadores o requieran algún tipo de filtrado, donde los sensores se utilizan en un quórum para superar problemas de calibración o envejecimiento. Aquí, los sensores individuales pueden rechazarse si otros sensores cercanos que participan en un quórum no están de acuerdo con las lecturas. Una fábrica completamente instrumentada puede contener millones de sensores individuales que, en última instancia, consisten en solo unas pocas decenas de miles de quórumes de sensores, potencialmente mucho más de lo que se puede esperar razonablemente que maneje la conexión a Internet local.

En otras configuraciones de edge computing para fabricación, hay algunos sensores que solo se utilizan localmente. Esto podría deberse a que se utilizan con capacidad de respuesta en tiempo real o a que solo son relevantes a nivel local, por ejemplo, como parte de una solución de seguridad.

Fabricación por contrato

La computación de borde también es útil en el escenario cada vez más común de los fabricantes por contrato (CM). Los CM tienen soluciones de TI independientes de los fabricantes de equipos originales (OEM) que encargan el trabajo. Sin embargo, muchos fabricantes de equipos originales ven beneficios al instrumentar toda su cadena de suministro, incluso aquellas partes de ella que han sido subcontratadas.

En este caso, los OEM pueden extruir parte de su red en la red del CM utilizando la informática de borde. El equipo de TI del OEM puede colocar servidores en la red del CM que se conectan de nuevo a la nube privada del OEM. Combinados con sensores IIoT, estos servidores de computación de borde permitirían al CM cumplir con los objetivos de integración de la cadena de suministro e instrumentación del OEM sin afectar la propia red del CM o requerir cambios radicales en el diseño de la red del CM.

La informática de borde le da al OEM la capacidad de ver toda su cadena de suministro y operación de fabricación utilizando una interfaz consistente y un conjunto integrado de aplicaciones, independientemente de si los componentes individuales se fabrican en las instalaciones del OEM o en las de un CM. Esta coherencia facilita la formación y el apoyo a los CM, ya que todos utilizan la misma cadena de herramientas.

Resumen

La computación en la nube, que existe desde hace más de una década, a menudo se comercializa como la solución para todos los problemas de TI. No es. La computación en la nube resuelve muchos problemas, pero la velocidad de la luz significa que las granjas gigantes de servidores centralizados solo serán tan útiles.

La computación de borde tiene dos propósitos principales:extraer la señal del ruido procesando localmente grandes volúmenes de datos que no son factibles de enviar a través de Internet y brindar la capacidad de procesar cosas específicas localmente donde y cuando la latencia es una preocupación. Ambos son útiles para las empresas de fabricación que dependen cada vez más de la instrumentación.

La fabricación no puede esperar a que la luz pase de A a B y viceversa. Hay demasiado en juego y no hay tiempo para errores. La computación perimetral resuelve problemas que las nubes no pueden, por lo que es hora de evolucionar o quedarse atrás.

El autor de este blog es Michael Schuldenfrei, miembro de tecnología corporativa de OptimalPlus


Tecnología de Internet de las cosas

  1. Tendencias y consejos de seguridad de IIoT para 2020
  2. ¿Por qué Edge Computing para IoT?
  3. ¿Qué es la computación perimetral y por qué es importante?
  4. Linux Foundation crea un grupo paraguas para Edge Computing
  5. Beneficios del Edge Computing para la cristalización de la IA
  6. Por qué la automatización es el único camino a seguir para la fabricación
  7. Una red Wi-Fi optimizada es fundamental para el éxito de Edge
  8. Cuatro pasos para garantizar el éxito en Edge Computing
  9. Comprensión de Edge Computing y por qué es tan importante
  10. Por qué la industria minorista necesita utilizar el poder de Edge Computing
  11. Argumentos a favor de 5G en la fabricación