La invención de la placa de circuito impreso (PCB) en la década de 1950 cambió el mundo de la automatización. Antes de la PCB, las placas de circuitos electrónicos se ensamblaban exclusivamente a mano, un proceso laborioso que limitaba en gran medida la producción mundial.

Hoy dice Michael Schuldenfrei, investigador corporativo de tecnología en OptimalPlus, La industria está experimentando otro salto revolucionario con la introducción de la instrumentación en el proceso de fabricación y el uso de la informática de vanguardia.

La instrumentación del proceso de fabricación implica numerosos sensores y microcontroladores que pueden alterar sutilmente las condiciones de fabricación en respuesta a las condiciones ambientales detectadas por los sensores. Estos sensores producen grandes cantidades de datos, pero los microcontroladores no pueden responder directamente a los datos producidos.

Tanto los sensores como los microcontroladores utilizados en la fabricación de instrumentos son básicamente computadoras conectadas en red. Los sensores envían sus datos a una ubicación central donde luego se analizan los datos. Estas pequeñas computadoras autónomas no son monitoreadas por humanos en tiempo real y son parte de Internet of Things (IoT). Más específicamente, en un contexto de fabricación, son dispositivos Industrial IoT (IIoT).

Caso de uso IIoT para la fabricación de instrumentos.

Los dispositivos IIoT se utilizan en cualquier número de contextos para realizar trabajos que serían difíciles, si no imposibles, para que los humanos realicen de manera confiable y / o precisa en todo momento. Considere, por ejemplo, la inspección de soldadura. La soldadura es una parte integral de muchas líneas de producción electrónica y es fundamental para la funcionalidad y durabilidad del producto final.

Desafortunadamente, a los fabricantes se les pide que realicen soldaduras en componentes cada vez más pequeños, con restricciones cada vez más estrictas. Para proteger los componentes, las soldaduras deben realizarse al menor calor posible y con la menor carga eléctrica posible.

Los dispositivos IIoT que podrían ayudar a refinar este proceso incluyen sensores de calor, voltaje y presión para ayudar a determinar el amperaje mínimo necesario para realizar una soldadura en las condiciones ambientales actuales. Las cámaras IIoT también pueden alimentar sistemas de inspección de soldadura visual basados ​​en Aprendizaje automático para verificar que las soldaduras sean satisfactorias, incluso cuando son demasiado pequeñas para que las vea el ojo humano; Y esto es solo para empezar.

La fabricación de instrumentos puede hacer que cualquier fabricación, no solo la fabricación de productos electrónicos, sea más precisa, con menos errores de producción y que requiera menos personas involucradas. Desafortunadamente, esta instrumentación no es fácil, especialmente dada la complejidad de la cadena de suministro de manufactura moderna.

Haciendo la función de fabricación de instrumentación

Los equipos de tecnología de la información (TI) han estado utilizando la instrumentación durante décadas. No cuesta tanto construir sensores en software como costearlos en hardware. Como resultado, los sistemas operativos, aplicaciones y equipos de TI de todo tipo están absolutamente llenos de sensores. Debido a esto, los equipos de TI han estado luchando con la cantidad de datos que producen desde antes de que existiera la microcomputadora moderna.

Tantos datos, tan poco tiempo.

En el mundo real, cualquier infraestructura instrumentada produce mucha más información que la que un solo humano puede procesar. Incluso no se puede esperar que grandes equipos de personas analicen todos los datos emitidos incluso por una infraestructura de TI modesta. Existen disciplinas completas dentro del campo de TI dedicado a hacer que los datos emitidos por la instrumentación de TI sean comprensibles. Las tecnologías y tecnologías van desde filtros simples hasta sofisticadas técnicas de Inteligencia Artificial (AI) y Aprendizaje Automático (ML).

Hasta hace poco, esto era lo suficientemente bueno para la mayoría de los equipos de TI. La información se recopilaría y se enviaría a una ubicación central, los números se procesarían y solo los datos importantes se enviarían a los administradores de sistemas. Si esto tomó unos segundos o minutos, estuvo bien; una breve interrupción de TI fue generalmente aceptable.

Pero a medida que las organizaciones de todo el mundo se volvieron más y más dependientes de su TI, la cantidad aceptable de tiempo que tomó para actuar en la instrumentación disminuyó significativamente. Para muchas organizaciones, el tiempo de reacción aceptable es hoy muy por debajo de lo que un humano podría lograr. Los sistemas de TI modernos en las organizaciones más avanzadas, por lo tanto, utilizan poderosas suites AI y ML para hacer que su infraestructura de TI reaccione a los cambios informados por los datos del sensor antes de que los administradores humanos sepan que hay un problema.

Los fabricantes modernos, como uno podría imaginar, buscan soluciones de instrumentación de fabricación que también sean capaces de reaccionar más rápido que un humano. Si bien la lectura de sensores y el hecho de informar a los humanos que un problema se ha desarrollado es útil, no es tan útil como responder a los datos del sensor en tiempo real.

Instrumentación TI frente a instrumentación de fabricación

La diferencia entre los dos es que la instrumentación de TI es comparativamente fácil: uno recopila datos sobre la infraestructura de TI y las aplicaciones de dispositivos que ya son completamente digitales. La fabricación de instrumentos es más desafiante. Los dispositivos IIoT utilizados en la fabricación de instrumentos recopilan datos sobre el mundo físico. Esto significa recopilar datos analógicos y convertirlos en digitales, y eso es otro juego de pelota. Los sensores físicos necesitan ser calibrados, y con el tiempo se desgastan. Los sensores físicos también se suelen implementar en grupos, de modo que es posible la detección de quórum.

La detección de quórum utiliza múltiples sensores independientes para compensar la deriva de calibración o el mal funcionamiento del sensor. Si un sensor en un clúster informa datos que son divergentes de sus socios, puede ignorarse y / o marcarse para recalibración. Esto permite que la fabricación continúe con buenos sensores conocidos hasta que el que funciona mal puede recalibrarse o reemplazarse.

Las complicaciones de la detección analógica, combinadas con el requisito acuciante de la capacidad de respuesta en tiempo real a los datos de los sensores, presentan desafíos reales para la fabricación de instrumentos.

¿No puede la computación en la nube arreglar todo?

Los equipos de TI han tenido que lidiar con muchos requisitos computacionales diferentes y difíciles. Un ejemplo de una solución desarrollada por proveedores de TI es la computación en la nube.

Computación en la nube y BDCA

La computación en la nube permite a las organizaciones acceder a una infraestructura de TI aparentemente ilimitada con solo presionar un botón. Si bien las razones detrás de la computación en la nube son numerosas y complejas, quizás la más importante es que la computación en la nube permite a los equipos de TI operar las cargas de trabajo de TI sin tener que administrar o mantener la infraestructura de TI subyacente. El proveedor de la nube maneja esa parte por ellos.

La computación en la nube ha demostrado ser muy útil para las cargas de trabajo del Análisis computacional de datos en masa (BDCA). Hay muchos tipos de cargas de trabajo BDCA, incluidas AI, ML, Big Data y más; Cualquier cosa en la que se recopilen grandes cantidades de datos y que posteriormente deban analizarse es una carga de trabajo BDCA. En los últimos años, la computación en la nube ha sido el destino para la mayoría de los nuevos proyectos BDCA.

Una de las razones por las que la computación en la nube se utiliza para las cargas de trabajo BDCA es el concepto de ráfaga de nubes. Las cargas de trabajo en la nube, como las cargas de trabajo de cómputo utilizadas para analizar grandes conjuntos de datos, se pueden girar solo según sea necesario y en la escala que sea necesaria. Esto se adapta bien a las cargas de trabajo de BDCA porque la mayoría de las cargas de trabajo de BDCA solo necesitan generar análisis en un horario establecido. Los informes de fin de mes son un caso de uso popular aquí.

Desafortunadamente, la economía de escala significa que las nubes públicas tradicionales están ubicadas centralmente. Esto permite a los proveedores de nube pública ubicar sus centros de datos donde los costos son más bajos y simplemente construir centros de datos realmente grandes. Si bien esto es útil para las cargas de trabajo BDCA de estilo de trabajo por lotes que se ejecutan en horarios, esto es menos útil para las cargas de trabajo que requieren capacidad de respuesta en tiempo real.

Para resolver esto, se desarrolló la computación perimetral.

Computación perimetral

La computación perimetral se puede considerar como computación en la nube, pero en el centro de datos de otra persona. La computación perimetral evolucionó porque los equipos de TI tenían cargas de trabajo que requerían una capacidad de respuesta de baja latencia que la computación en la nube pública tradicional no podía proporcionar. Los equipos de TI eran perfectamente capaces de crear tales infraestructuras, pero simplemente no querían la carga y la molestia de tratar con ellas mismas.

Satisfacer nuevas demandas de datos

Después de una reunión de ideas, se decidió que para satisfacer las necesidades de estos clientes, los proveedores de la nube pública instalarían servidores en los centros de datos de las organizaciones relevantes. Esto permitió a los equipos de TI de esas organizaciones ejecutar cargas de trabajo en lo que, para ellos, parecían idénticos a una región creada solo para ellos por el proveedor de nube pública pero que estaba ubicada en la misma red de área local (LAN) que el resto de sus cargas de trabajo .

Estos servidores de "computación perimetral" permiten que los datos de los sensores de IoT se procesen y actúen mucho más rápido de lo que sería posible si esos datos tuvieran que atravesar Internet a un centro de datos de nube pública, se procesaran y luego los resultados regresaran a través de Internet. . La computación perimetral está habilitando una serie de nuevas tecnologías, incluyendo autos sin conductor.

Caso de uso: datos en tiempo real para coches sin conductor

Los autos sin conductor son un gran ejemplo de una tecnología en la que la espera de datos simplemente no es una opción. La computación en la nube podría ayudar a los automóviles sin conductor mediante la recopilación de información de sensores para todos los automóviles en un área determinada, procesando los datos y enviando a esos automóviles un mapa de dónde se encuentran todos y todo dentro de un radio determinado. Esto podría permitir que estos autos, literalmente, vean las esquinas, haciéndolos aún más seguros.

Sin embargo, incluso a la velocidad de la luz, enviar información desde un automóvil a la nube pública y viceversa puede llevar hasta un cuarto de segundo. Las personas pueden morir en un cuarto de segundo cuando los autos están involucrados. Por lo tanto, acercar el procesamiento a los autos (por ejemplo, al ubicar los servidores relevantes a unas pocas cuadras de donde los autos intentarán navegar en entornos urbanos difíciles) puede habilitar tecnologías que de otra manera no serían posibles.

De la misma manera, la fabricación puede hacer uso de la computación perimetral para permitir la instrumentación necesaria. Sin embargo, como suele ser el caso, la fabricación tiene sus propios giros y vueltas que no solo hacen que la informática de vanguardia sea más crítica para el proceso, sino que también presentan varios desafíos que deben superarse.

¿Por qué utilizar la computación perimetral en la fabricación?

Un argumento común para la relevancia de la computación de vanguardia para las empresas de fabricación gira en torno a la necesidad de una capacidad de respuesta en tiempo real. Cuando se trata de mantener los defectos de fabricación cerca de cero en una línea de producción en rápido movimiento, es útil poder utilizar grupos de sensores. Un grupo de sensores puede detectar quórum si un sensor individual es defectuoso y luego recalibrarlo. Sin embargo, la recalibración debe realizarse muy rápidamente para evitar interrumpir la línea de producción.

Si se requieren 100 o 250 milisegundos para enviar datos del sensor a través de Internet, los productos en la línea podrían perderse o el equipo podría dañarse. Pero si los datos se pueden procesar localmente, tomando aproximadamente cinco milisegundos, entonces los fabricantes pueden recalibrar los sensores en tiempo real y / o alterar la configuración del equipo de fabricación en respuesta a las condiciones ambientales.

Sobrecarga del sensor

Otra razón detrás de la utilidad de la computación de borde que no se discute tan fácilmente es que puede haber una gran cantidad de sensores inmanejablemente involucrados en la fabricación de instrumentos. Esto no solo puede abrumar la capacidad de la red sino que también puede producir una gran colección de datos, que no se requiere en su totalidad. Por lo tanto, es útil filtrar los datos antes de reenviar solo lo que se necesita enviar.

Es común que los volúmenes de datos sean abrumadores o requieran algún tipo de filtrado, donde los sensores se utilizan en un quórum para superar los problemas de calibración o envejecimiento. Aquí, los sensores individuales pueden ser rechazados si otros sensores cercanos que participan en un quórum no están de acuerdo con las lecturas. Una fábrica completamente instrumentada puede contener millones de sensores individuales que, en última instancia, constan de unas pocas decenas de miles de quórumes de sensores, potencialmente mucho más de lo que se puede esperar que la conexión a Internet local maneje.

En otras configuraciones de computación de borde para la fabricación, hay algunos sensores que solo se usan localmente. Esto podría deberse a que se usan en la capacidad de respuesta en tiempo real o porque solo son relevantes a nivel local, por ejemplo, como parte de una solución de seguridad.

Fabricación por contrato

La computación perimetral también es útil en el escenario cada vez más común de los fabricantes contratados (CM). Los CM tienen soluciones de TI independientes de los fabricantes de equipos originales (OEM) que encargan el trabajo. Sin embargo, muchos fabricantes de equipos originales ven los beneficios de instrumentar toda su cadena de suministro, incluso aquellas partes de la misma que han sido contratadas.

En este caso, los OEM pueden extruir parte de su red en la red del CM utilizando la computación perimetral. El equipo de TI del OEM puede colocar servidores en la red del CM que se conectan a la nube privada del OEM. Combinados con los sensores IIoT, estos servidores informáticos de borde permitirían al CM cumplir con los objetivos de integración de la cadena de suministro y la instrumentación del OEM sin afectar la propia red del CM o requerir cambios radicales en el diseño de la red del CM.

La computación perimetral le brinda al OEM la capacidad de ver toda su cadena de suministro y operación de fabricación utilizando una interfaz consistente y un conjunto integrado de aplicaciones, independientemente de si los componentes individuales se están fabricando en las instalaciones del OEM o las de un CM. Esta consistencia hace que la capacitación y el soporte de CM sean más fáciles, ya que todos usan la misma cadena de herramientas.

Resumen

La computación en la nube, que ya existe desde hace más de una década, a menudo se comercializa como la solución para todos los problemas de TI. No es. La computación en la nube resuelve muchos problemas, pero la velocidad de la luz significa que las granjas de servidores centralizadas gigantes solo serán tan útiles.

La computación perimetral cumple dos propósitos principales: extraer la señal del ruido mediante el procesamiento local de grandes volúmenes de datos que no se pueden enviar a través de Internet y proporcionar la capacidad de procesar cosas específicas localmente, donde y cuando la latencia es una preocupación. Ambos son útiles para las empresas de fabricación que dependen cada vez más de la instrumentación.

La fabricación no puede esperar a que llegue la luz de A a B y viceversa. Hay demasiado en la línea y no hay tiempo para errores. La computación perimetral resuelve los problemas que las nubes no pueden, por lo que es hora de evolucionar o quedarse atrás.

El autor de este blog es Michael Schuldenfrei, investigador corporativo de tecnología en OptimalPlus.

Dejar respuesta

Please enter your comment!
Please enter your name here