Manufactura industrial
Internet industrial de las cosas | Materiales industriales | Mantenimiento y reparación de equipos | Programación industrial |
home  MfgRobots >> Manufactura industrial >  >> Industrial Internet of Things >> Computación en la nube

Por qué transportar datos continuos a la nube cuesta más de lo que cree

En industrias cada vez más impulsadas por la toma de decisiones en tiempo real, como la manufactura, el transporte, las telecomunicaciones, la seguridad pública y más, los datos ya no se crean en lotes ocasionales. Llega de forma continua y a gran escala desde sensores, máquinas, activos móviles y aplicaciones digitales. Si bien centralizar esos datos en una nube o centro de datos para su análisis alguna vez pareció eficiente, el volumen, la velocidad y la criticidad de los flujos de datos actuales han expuesto serias limitaciones con el enfoque tradicional de backhaul primero.

Durante años, las organizaciones que habitualmente manejan dichos flujos de datos y desean utilizarlos para obtener información en tiempo real han estado trasladando el análisis de esos datos al borde, donde se crean. Cada vez más, a medida que crecen los volúmenes de datos y las tasas de generación de datos, muchas organizaciones están dotando a sus sistemas perimetrales de inteligencia avanzada para actuar de forma adaptativa sobre la información en tiempo real y casi en tiempo real que derivan de sus análisis.

Ver también: Más allá de la latencia:la próxima fase de la inteligencia perimetral adaptativa

Las limitaciones del backhauling de datos

El transporte de datos a instalaciones centralizadas ha tenido aplicaciones prácticas durante décadas cuando los volúmenes de datos y la tasa de generación de datos eran modestos. Los datos se almacenarían y analizarían para acciones inmediatas o para comprender tendencias históricas.

Ese modelo ya no funciona en industrias que tienen grandes volúmenes de transmisión continua de datos. Algunas industrias afectadas incluyen:

En estos casos, y en otros, uno de los desafíos más inmediatos con el backhauling de datos es la congestión de la red . Las fuentes de datos de alta frecuencia, como sensores de IoT, transmisiones de vídeo HD, sistemas autónomos o maquinaria industrial, pueden producir gigabytes o incluso terabytes de datos por hora. Intentar canalizar esto a una ubicación central ejerce presión sobre el ancho de banda disponible, lo que aumenta los costos y disminuye el rendimiento general de la red. Las actualizaciones de ancho de banda ayudan, pero no escalan bien, lo que genera costos más altos.

Luego está la latencia , que es el asesino silencioso de la capacidad de respuesta en tiempo real. Cuando los datos sin procesar deben recorrer largas distancias para ser procesados, el retraso del viaje de ida y vuelta puede hacer que los conocimientos se vuelvan obsoletos cuando los sistemas de análisis actúan sobre ellos. En escenarios críticos para la seguridad o en los que el tiempo es urgente, como la detección de fallas en los servicios públicos, el control de calidad en las líneas de fabricación o el mantenimiento predictivo de flotas de transporte, los milisegundos importan. Una arquitectura de procesamiento centralizado simplemente no puede garantizar un rendimiento determinista.

Otro tema que a menudo se pasa por alto es la ineficiencia de costos . El almacenamiento en la nube, las tarifas de transferencia de datos y los recursos informáticos se vuelven costosos cuando se mueven continuamente grandes conjuntos de datos. Muchas organizaciones descubren que están pagando por almacenar y analizar datos redundantes, de bajo valor o irrelevantes. De hecho, los estudios muestran de forma rutinaria que la mayoría de los datos sin procesar de los sensores nunca se utilizan, pero aun así incurren en costos totales de transporte y almacenamiento cuando se devuelven.

Riesgos de seguridad y privacidad también crecen a medida que aumenta el volumen de datos. Mover datos sin filtrar a través de redes de área amplia amplía la superficie de ataque y requiere estrictos controles de cumplimiento, monitoreo y cifrado. Los datos confidenciales, como la información de ubicación, la telemetría operativa o los patrones de uso de los clientes, pueden tener implicaciones regulatorias cuando se transportan a través de regiones o límites de la nube. Para algunas industrias, esto por sí solo hace que el backhauling centralizado no sea práctico.

Finalmente, las arquitecturas centralizadas limitan la resiliencia . Si se pierde la conectividad o el rendimiento se degrada, los sistemas que dependen de la nube para realizar análisis pueden no tomar decisiones oportunas. Esto es inaceptable en entornos periféricos, como operaciones mineras remotas, plataformas de energía marinas, redes inteligentes o sistemas de transporte que no pueden pausar su funcionamiento hasta que la red se recupere.

Una mirada más cercana a los problemas de backhauling de datos

En resumen, a medida que proliferan los sistemas en tiempo real, el análisis y la toma de decisiones deben acercarse al origen del evento, mantener el estado, ejecutarse con latencia mínima y total coherencia.

Un blog reciente de Volt Active Data puso en perspectiva los problemas relacionados con el backhauling de datos y analizó cómo los sistemas de inteligencia de borde adaptativos los eliminan.

El blog señaló que, si bien el procesamiento de datos centralizado ofrece cierta comodidad de gestión, conlleva importantes costos ocultos. Estos incluyen altos gastos de ancho de banda y almacenamiento derivados del transporte y alojamiento de grandes conjuntos de datos, mayor consumo de energía y huella de carbono asociada, desafíos de confiabilidad y latencia de la red (especialmente para aplicaciones en tiempo real) y un mayor riesgo de puntos únicos de falla cuando todo el procesamiento depende de una infraestructura centralizada.

Para superar estos problemas, las organizaciones están trasladando la inteligencia al borde:procesando y filtrando datos más cerca de su fuente para que solo se envíe información reducida y significativa. Un modelo nativo de este tipo reduce los costos de transmisión y almacenamiento, reduce drásticamente la latencia, mejora la resiliencia operativa y permite arquitecturas más ecológicas y sostenibles.

Una última palabra

A medida que las organizaciones adoptan más automatización, inteligencia artificial y operaciones autónomas en el borde, el modelo de enviar todo a un centro de datos se vuelve cada vez más insostenible. El futuro está en las arquitecturas híbridas y nativas del borde donde los datos se procesan localmente, se reducen o se enriquecen en la fuente y solo se envían resultados o agregados de alto valor.


Computación en la nube

  1. Agregue SaaS y seguridad en la nube con pruebas y automatización
  2. Kubernetes como servicio:¿Qué es? ¿De verdad lo necesitas?
  3. Cómo migrar ERP a la nube
  4. Guía salarial de computación en la nube 2024:trayectoria profesional y remuneración
  5. Actualizaciones en la nube de Azure; Informe 2020
  6. Hoja de referencia de Google Cloud Platform (GCP)
  7. Qué debe aprender de la interrupción de AWS S3
  8. Mejores prácticas para el monitoreo sintético
  9. Por qué transportar datos continuos a la nube cuesta más de lo que cree
  10. Cómo lograr la preparación de la fuerza laboral en la nube
  11. Explicación del modelo como servicio (MaaS):Parte 1:Fundamentos