Categories: NoticiasTecnología

TinyML: cuando los dispositivos IoT pequeños requieren aprendizaje automático comprimido

Muchos de nosotros estamos familiarizados con el concepto de aprendizaje automático en lo que respecta a las redes neuronales. ¿Pero qué hay de TinyML?

Aumento del interés en TinyML

TinyML se refiere a las tecnologías de aprendizaje automático en el más pequeño de los microprocesadores que usan la menor cantidad de energía (generalmente en el rango de mW y menos) mientras buscan resultados maximizados.
Con la proliferación de dispositivos IoT, grandes nombres como Renesas y Arm se han interesado en TinyML, por ejemplo, con la reciente expansión de Arm de su cartera de inteligencia artificial con el nuevo aprendizaje automático y el procesamiento neuronal IP y el lanzamiento de Renesas de su plataforma TinyML, Qeexo AutoML, que no requiere código ni experiencia en ML.


Ejemplo de caso de uso de la implementación de Qeexo AutoML. Imagen utilizada por cortesía de Renesas

Otras compañías se han concentrado en asociaciones que los ayudarán a exagerar la utilidad de TinyML. Eta Compute y Edge Impulse anunciaron recientemente su asociación en la que combinarán las fortalezas del procesador de sensores neuronales de Eta Compute, el ECM3532, con la plataforma tinyML de Edge Impulse. Con la vista puesta en la capacidad de la batería, un punto difícil de solucionar en TinyML, esta asociación espera acelerar el tiempo de comercialización del aprendizaje automático en miles de millones de productos IoT de baja potencia.
Otra forma de evaluar el progreso de TinyML es reflexionar sobre la Cumbre tinyML, que tuvo lugar a principios de este año. Varias de las presentaciones en la conferencia ilustran los conceptos clave del aprendizaje automático en el nivel más pequeño.

Reflexiones sobre la Cumbre tinyML

En febrero, el colaborador de AAC Luke James pronosticó los altos objetivos para la Cumbre tinyML 2020, que, como en años anteriores, destacaría los desarrollos en TinyML. La cumbre publicó presentaciones en línea y exploró una serie de categorías pertenecientes a TinyML: hardware (circuitos integrados dedicados), sistemas, algoritmos y software y aplicaciones.


Los fundadores y patrocinadores de la Cumbre tinyML. Imagen utilizada por cortesía de tinyML Summit

Aquí hay algunas presentaciones notables relacionadas con los ingenieros de diseño.

Compresión modelo
Dos de los presentadores de la conferencia pusieron de relieve las realidades de tinyML al analizar un dispositivo que todos tenemos: los teléfonos móviles. En su discusión sobre la "compresión del modelo", el investigador del MIT Yujun Lin explicó que los dispositivos de aprendizaje automático típicos, como los teléfonos celulares, tienen aproximadamente 8 GB de RAM, mientras que los microcontroladores tienen aproximadamente 100 KB a 1 MB de RAM. Debido a que los microcontroladores tienen restricciones de peso y activación, necesitan compresión del modelo.
El concepto es reducir los modelos grandes pre-entrenados en modelos más pequeños sin perder precisión. Esto se puede lograr en procesos como la poda y la compresión profunda. La poda analiza las sinapsis y las neuronas, lo que resulta en diez veces menos conexiones. La compresión profunda lleva la poda un paso más allá con la cuantización (menos bits por peso) y una técnica conocida como "Codificación Huffman".


Diagrama del proceso de compresión profunda. Captura de pantalla utilizada por cortesía de tinyML Summit

Los investigadores sugirieron que al combinar un concepto conocido como búsqueda de arquitectura de hardware neuronal con uso no experto en la red neuronal, podemos mejorar el hardware orientado a la inteligencia artificial. El vicepresidente y director de laboratorio del Instituto de Tecnología Avanzada de Samsung, Changkyu Choi, entró en más detalles sobre la compresión profunda del modelo, pero se centró en la aceleración hacia la inteligencia artificial en el sensor.

Aprendizaje de refuerzo profundo
Otro experto, Hoi-Jun Yoo, profesor titular de ICT de la escuela de ingeniería de KAIST (Instituto Avanzado de Ciencia y Tecnología de Corea), habló sobre la importancia de los aceleradores de aprendizaje de refuerzo profundo (DRL) dentro de la red neuronal profunda (DNN).
En su discusión, señala que "la cooptimización de software y hardware para el entrenamiento de DNN es necesaria para los aceleradores de baja potencia y alta velocidad de la misma manera que trajo un aumento dramático en el rendimiento de los aceleradores de inferencia de DNN".
Yoo también explica que DRL es un factor esencial en TinyML porque permite la toma de decisiones continua en un "entorno desconocido" de baja potencia o en un entorno en el que los datos etiquetados son difíciles de capturar.

DNN para AI siempre activa para dispositivos alimentados por batería
Otra compañía, Syntiant, mostró uno de sus dispositivos, el procesador de decisión neural (NDP) NDP100, para discutir un concepto más amplio: el valor del aprendizaje profundo sobre el genio algorítmico. El Dr. Stephen Bailey, CTO de Syntiant, explicó que la magia del NDP de la compañía, un dispositivo que siempre está activo y que "escucha", son sus redes neuronales profundas (DNN), continuando la discusión de Yoo sobre los DNN.


Diagrama de bloques de NDP100. Imagen (modificada) utilizada por cortesía de Syntiant

El Syntiant NDP alimenta las características acústicas a un gran DNN (sin necesidad de conexión en cascada o de energía) y entrena el DNN con grandes conjuntos de datos y un amplio aumento. Más allá de su inmunidad al ruido, el NDP100 es extremadamente pequeño (1.4 mm x 1.8 mm) y consume menos de 140 μW.
Desde la cumbre, Syntiant también lanzó el NDP101, que se dice que combina el poder de cómputo y la memoria para explotar "el vasto paralelismo inherente del aprendizaje profundo y la computación con solo la precisión numérica requerida". Syntiant dice que estas características mejoran la eficiencia en 100 veces en comparación con las arquitecturas de programas almacenados que verías en CPU y DSP.

Los dispositivos más pequeños requieren aprendizaje automático comprimido

Los requisitos de hardware para el aprendizaje automático en sistemas más grandes son similares para TinyML en IoT pequeño. Pero a veces, las apuestas son mayores debido al pequeño tamaño del dispositivo: precisión, latencia y consumo de energía. A medida que los dispositivos IoT más pequeños llegan al mercado, los ingenieros pueden incursionar cada vez más en TinyML, familiarizándose con conceptos como redes neuronales profundas, compresión de modelos y aprendizaje de refuerzo profundo.


Si ha trabajado con TinyML, ¿cuáles son las principales diferencias de diseño con las que lidia (en oposición al aprendizaje automático en un sistema más grande)? Comparte tus experiencias en los comentarios a continuación.

Maria Montero

Me apasiona la fotografía y la tecnología que nos permite hacer todo lo que siempre soñamos. Soñadora y luchadora. Actualmente residiendo en Madrid.

Recent Posts

Máquina de mano Lean, Green, Raspberry Pi

Los días felices de la PDA y Blackberry han quedado definitivamente atrás, pero el factor…

2 years ago

Cómo pronosticar series de tiempo usando autorregresión

Tutorial sobre cómo pronosticar usando un modelo autorregresivo en PythonFoto de Aron Visuals en UnsplashForecasting…

2 years ago

Aquí están todas las formas en que puede cargar su AirPods Pro

Si tienes un iPhone, los AirPods Pro son la opción obvia para escuchar música, ¡aunque…

2 years ago

Las principales noticias tecnológicas del lunes: la prohibición de clientes de terceros de Twitter parece no ser un accidente

Ilustración de Alex Castro / The Verge Plus nuevos rumores sobre el quinto Galaxy Fold.…

2 years ago

AirPods Max 2: aquí están las características más solicitadas

Se rumorea que los auriculares premium de próxima generación de Apple, los AirPods Max 2,…

2 years ago

El remake de Dead Space continúa luciendo terriblemente genial en el nuevo tráiler de la historia

El desarrollador Motive Studio y el editor EA han lanzado un nuevo tráiler de la…

2 years ago