Se espera que el gasto mundial en tecnología en Internet de las cosas (IoT) alcance los $ 1.2 billones (€ 1 billón) en 2022, liderado por industrias como la fabricación discreta $ 119 billones (€ 108 billones), la fabricación de procesos $ 78 billones (€ 70.8 billones), transporte $ 71 mil millones (€ 64.5 mil millones) y servicios públicos $ 61 mil millones (€ 55.4 mil millones).

De hecho, se espera que el mercado de productos y servicios de la Industria 4.0 crezca significativamente en los próximos años, y se espera que más del 60% de los fabricantes estén completamente conectados para ese momento, utilizando un cambio de tecnologías como RFID, wearables y sistemas automatizados. , dice Ramya Ravichandar, VP Productos, Sirena.

Si bien la industria anticipa un crecimiento positivo en los proyectos actuales y futuros de IoT y IIoT, aún deben abordarse algunos desafíos importantes para ganar la confianza de los clientes y trasladar los proyectos piloto a producciones de IoT exitosas a gran escala. Si bien muchos ven limitaciones de conectividad, riesgos de seguridad y sesgo de datos, incluida la cantidad de datos, problemas como obstáculos para el éxito de IoT, hemos descubierto que la calidad de los datos también juega un papel fundamental en la entrega de proyectos de IoT efectivos.

¿Qué es la calidad de los datos y cómo afecta el éxito de la implementación?

La calidad de los datos juega un papel vital en la creciente adopción de dispositivos IoT de tres maneras principales:

  1. Las organizaciones solo pueden tomar las decisiones correctas basadas en datos si los datos que utilizan son correctos y adecuados para el caso de uso en cuestión.
  2. Los datos de baja calidad son prácticamente inútiles, y pueden conducir a problemas graves, como modelos de aprendizaje automático inexactos, toma de decisiones inexactas o ROI deficiente.
  3. Específicamente, los problemas clásicos de la entrada / salida de basura resurgieron con el aumento de la inteligencia artificial y las aplicaciones de aprendizaje automático.

Fuentes de datos de alta calidad, trenes y modelos de aprendizaje automático (ML) para potenciar a las fábricas habilitadas para IoT a tomar decisiones informadas basadas en datos.

Por ejemplo, la falla inesperada de una turbina de vapor puede crear una interrupción crítica, daños y pérdidas económicas tanto para la planta de energía como para la red eléctrica aguas abajo. Los modelos predictivos de aprendizaje automático, entrenados en conjuntos de datos de alta calidad, ayudan a estas organizaciones industriales a maximizar la confiabilidad de sus equipos al detectar posibles fallas antes de que surjan problemas importantes.

Sin embargo, los datos sucios, incluidos los que faltan, están incompletos o son propensos a errores, llevan a las organizaciones a cometer errores inconvenientes, largos y costosos. De hecho, según el Data Warehouse Institute (TDWI), los datos sucios le cuestan a las empresas estadounidenses alrededor de $ 600 mil millones (€ 545 mil millones) cada año. Es un hecho que aproximadamente el 80% del trabajo de un científico de datos se enfoca en la preparación y limpieza de datos para garantizar que los modelos de ML brinden la información correcta.

Mirando hacia el futuro, las organizaciones deben incorporar metodologías para garantizar la integridad, validez, consistencia y corrección de sus flujos de datos para mejorar la calidad de la información, implementar proyectos de IoT efectivos y lograr un ROI óptimo.

Entonces, ¿qué papel juega la informática de punta en la calidad de los datos?

Los sensores industriales vienen en muchos tipos diferentes y recopilan grandes volúmenes, variedades y velocidades de datos, incluidos video, audio, aceleración, vibración, acústica y más. Si una organización puede alinear, limpiar, enriquecer y fusionar con éxito todos estos diversos flujos de datos, puede mejorar significativamente la eficiencia, la salud y la seguridad de sus operaciones. Sin embargo, para pintar una imagen completa y precisa de las operaciones de la fábrica, las organizaciones deben reunir, casar y procesar los conocimientos brutos entregados por estas fuentes de datos remotas y variadas.

Ramya Ravichandar

Edge computing prospera en este tipo de entornos, ya que pueden recopilar y procesar datos en tiempo real desde su inicio, y luego crear una estructura dentro de los datos para ayudar a identificar el valor.

Las máquinas habilitadas para Edge ayudan a limpiar y formatear datos sucios localmente, lo que mejora la capacitación y la implementación de modelos de aprendizaje automático precisos y efectivos. De hecho, los investigadores de la industria creen que los casos de uso basados ​​en borde para IoT serán un poderoso catalizador para el crecimiento en los mercados verticales clave, y que los datos se procesarán (de alguna forma) mediante la computación de borde en el 59% de las implementaciones de IoT para 2025.

Por ejemplo, utilizando la computación de vanguardia, las fábricas pueden mejorar la calidad del producto al analizar los datos del sensor en tiempo real para identificar cualquier valor que esté fuera de los umbrales previamente definidos, construir y entrenar un modelo ML para identificar las causas del problema raíz y, si lo desea, implementar El modelo ML para detener automáticamente la producción de piezas defectuosas.

Para estos y otros casos de uso similares, las soluciones habilitadas para el borde transforman los datos de la máquina en tiempo real (datos de baja calidad) en información procesable (datos de alta calidad) relacionados con la eficiencia de producción y las métricas de calidad que los gerentes de operaciones pueden usar para reducir tiempo de inactividad no planificado, maximiza el rendimiento y aumenta la utilización de la máquina.

Muchas organizaciones están comenzando a comprender el valor que la informática de vanguardia puede aportar a sus proyectos de IoT e IIoT, ya que las soluciones de vanguardia convierten los datos del sensor de transmisión en bruto en información procesable utilizando análisis y procesamiento de datos en tiempo real. Al limpiar y enriquecer los datos sucios en el momento de su creación, la informática de borde puede mejorar significativamente la calidad de los datos y refinar los datos repetitivos de la máquina para mejorar la eficiencia operativa.

El autor es Ramya Ravichandar, vicepresidente de productos, FogHorn

Dejar respuesta

Please enter your comment!
Please enter your name here