Los investigadores de Applied Brain Research (ABR) han logrado una reducción significativa del consumo de energía para una variedad de dispositivos alimentados por IA.

ABR diseñó una nueva red neuronal llamada Legendre Memory Unit (LMU). Con LMU, las tareas de inteligencia artificial en el dispositivo, como las que se realizan en dispositivos habilitados para voz, como dispositivos portátiles, teléfonos inteligentes y altavoces inteligentes, pueden consumir hasta un 94 por ciento menos de energía.

La reducción en el consumo de energía lograda a través de LMU será particularmente beneficiosa para los dispositivos de factor de forma más pequeños, como los relojes inteligentes; que luchan con baterías pequeñas. Los dispositivos de IoT que realizan tareas de IA, pero que pueden tener que durar meses, si no años, antes de ser reemplazados, también deberían beneficiarse.

La LMU se describe como una red neuronal recurrente (RNN) que permite una potencia más baja y un procesamiento más preciso de señales que varían en el tiempo.

ABR dice que la LMU se puede usar para construir redes de inteligencia artificial para todas las tareas que varían en el tiempo, como procesamiento de voz, análisis de video, monitoreo de sensores y sistemas de control.

El modelo actual de la industria de la inteligencia artificial es la red de memoria a largo y corto plazo (LSTM). LSTM se propuso por primera vez en 1995 y se utiliza para los servicios de traducción y reconocimiento de voz más populares en la actualidad, como los de Google, Amazon, Facebook y Microsoft.

El año pasado, investigadores de la Universidad de Waterloo presentaron LMU como una alternativa RNN a LSTM. Esos investigadores pasaron a formar ABR, que ahora consta de 20 empleados.

Peter Suma, codirector ejecutivo de Applied Brain Research, dijo en un correo electrónico:

“Somos una empresa derivada de la Universidad de Waterloo del Laboratorio de Neurociencia Teórica de la Universidad de Washington. Observamos cómo el cerebro procesa las señales en el tiempo y creamos un algoritmo basado en cómo funcionan las “células del tiempo” en su cerebro.

Llamamos a la nueva IA, Legendre-Memory-Unit (LMU) después de una herramienta matemática que usamos para modelar las celdas de tiempo. Se ha demostrado matemáticamente que la LMU es óptima para procesar señales. No puedes hacerlo mejor. En los próximos años, esto mejorará todas las formas de IA temporal ".

ABR presentó un artículo a finales de 2019 durante la conferencia NeurIPS que demostró que LMU es 1.000.000 veces más precisa que LSTM y codifica 100 veces más pasos de tiempo.

En términos de tamaño, el modelo LMU también es más pequeño. LMU usa 500 parámetros frente a los 41,000 de LSTM (una reducción del 98 por ciento en el tamaño de la red).

“Implementamos nuestro reconocimiento de voz con la LMU y redujo la potencia utilizada para el procesamiento de palabras de comando a ~ 8 millonésimas de vatio, que es un 94 por ciento menos de potencia que la mejor del mercado actual”, dice Suma. "Para el habla completa, redujimos la potencia a 4 milivatios, que es aproximadamente un 70 por ciento más pequeña que la mejor que existe".

Suma dice que el siguiente paso para ABR es trabajar en el procesamiento de IA de control de video, sensores y drones, para hacerlos más pequeños y mejores.

Se puede encontrar un documento técnico completo que detalla LMU y sus beneficios en el repositorio de preimpresión arXiv aquí.

¿Está interesado en escuchar a los líderes de la industria discutir temas como este? Asista a la 5G Expo, IoT Tech Expo, Blockchain Expo, AI & Big Data Expo, y Cyber ​​Security & Cloud Expo World Series, ubicadas en el mismo lugar, con los próximos eventos en Silicon Valley, Londres y Ámsterdam.

Etiquetas: abr, ai, investigación aplicada del cerebro, inteligencia artificial, dispositivos, Destacados, unidad de memoria legendre, lmu, memoria a largo y corto plazo, lstm, red, red neuronal, en el dispositivo, red neuronal recurrente, rnn, reconocimiento de voz, reconocimiento de voz

Dejar respuesta

Please enter your comment!
Please enter your name here