El aprendizaje automático (ML) tuvo un impacto sin precedentes en 2020, específicamente al detectar y rastrear el virus COVID-19 a través del procesamiento de datos. Los investigadores se beneficiaron del uso de ML para analizar cantidades masivas de información y crear conclusiones sobre una gran cantidad de la salud general de las personas.
En cuanto a 2022, podría haber un gran potencial para las aplicaciones de aprendizaje automático en la computación cuántica, la robótica y la inteligencia artificial basada en el borde, por nombrar algunas.
Un diagrama de flujo de alto nivel de los pasos del proceso de inteligencia artificial de aprendizaje automático. Imagen utilizada por cortesía de sustAGE
En el núcleo de estas aplicaciones se encuentra el hardware. En particular, tres ideas centradas en el hardware son esenciales para el desarrollo de hardware de ML: diseñar hacia el borde, arquitectura de bajo consumo y compatibilidad con los marcos de ML.
La inteligencia en el borde es cada vez más necesaria cuando se considera la gran cantidad de datos que se utilizan y procesan. Al diseñar para la inteligencia artificial de borde, los diseñadores deben considerar muchas limitaciones como la potencia, el espacio en la placa y el tiempo de cálculo.
La IA en el dispositivo resuelve algunos de estos problemas, lo que permite el procesamiento localizado, lo que ayuda a reducir la tensión de la computación en la nube y al mismo tiempo es más rápido y más eficiente en el uso de la energía. Muchos fabricantes se dan cuenta de este beneficio y están intentando incluir IA en el dispositivo en varias aplicaciones como teléfonos inteligentes, vehículos y dispositivos de IoT. Al diseñar con la ventaja en mente, los ingenieros pueden dar a los productos una ventaja competitiva cuando llegan al mercado.
Un desarrollo reciente en hardware para IA en el borde es LG8111 de LG, un SoC y placa de desarrollo. Esta placa de desarrollo y SoC incluye un procesador AI específico de LG y un acelerador AI. Juntos, estos dispositivos admiten varias funciones de procesamiento de inteligencia artificial, como voz, video, imagen e inteligencia de control.
SoC LG8111 y placa de desarrollo. Imagen utilizada por cortesía de LG
El chip también es compatible con ASW IoT Greengrass, lo que permite que este SoC y la placa de desarrollo alberguen una variedad de aplicaciones y soluciones, según el dispositivo.
La potencia es una de las consideraciones más importantes al diseñar en el borde. El aprendizaje automático se ocupa de cantidades masivas de datos; por lo tanto, es necesario eliminar el desperdicio de energía durante el procesamiento al diseñar un sistema.
Una forma de lograr una arquitectura de bajo consumo es mediante el uso de un procesador de señal digital (DSP) de bajo consumo y un procesador NN (red neuronal) dedicado. DSP Group puso en marcha este esquema de bajo consumo con su nuevo procesador DVM10 DSP y nNetLite NN. Esta estructura permite variar la potencia entre ambos procesadores, según los algoritmos y los marcos instalados.
Esta configuración también permite a los procesadores dividir el proceso de lectura de datos y tareas específicas, lo que puede llevar a un menor consumo de energía que sobrecargar un procesador con todas las tareas.
Aplicaciones compatibles con DBM10 y un vistazo al SoC real. Imagen utilizada por cortesía de DSPG
Esta combinación de procesadores permite que el SoC admita inferencias de potencia ultrabaja a ~ 500 μW, que es típico de la mayoría de los algoritmos NN de voz.
Aunque la programación y las aplicaciones de software parecen estar separadas del diseño de hardware, se está convirtiendo cada vez más en un área gris, especialmente en ML. Debido a esto, es necesario saber qué marcos usará el dispositivo. Dependiendo de las necesidades del producto o del usuario, podría ser beneficioso tener un procesador que pueda ser compatible con varios marcos de ML.
El procesador CV5 de Ambarella es un ejemplo reciente de compatibilidad con marcos. El CV5 es compatible con marcos de aprendizaje automático comunes como Caffe, PyTorch, TensorFlow y ONNX. Esta flexibilidad en la compatibilidad del marco brinda al usuario múltiples opciones para integrar sus redes neuronales en el dispositivo.
Una de las principales tendencias previstas en 2022 es la integración del aprendizaje automático con la computación cuántica, denominada "aprendizaje automático cuántico". Según el Quantum Daily, el aprendizaje automático cuántico se refiere a "un campo que tiene como objetivo escribir algoritmos cuánticos para realizar tareas de aprendizaje automático".
Algunos algoritmos de aprendizaje automático son demasiado complejos y laboriosos para que los procesen las computadoras clásicas. Con el ML cuántico, los investigadores pueden traducir los algoritmos ML clásicos en un circuito cuántico, lo que les permite funcionar de forma eficaz en una computadora cuántica.
Aprendizaje automático clásico (CML) frente al aprendizaje automático cuántico (GML). Imagen utilizada cortesía de ICFO
Este nuevo campo podría allanar el camino para la comercialización de la computación cuántica al tiempo que mejora los beneficios del aprendizaje automático que vimos el año pasado.
Con la pandemia aún en curso, la necesidad de un procesamiento de datos rápido y preciso es imperativa. Al expandir y evolucionar el aprendizaje automático con opciones de diseño a nivel de placa, los diseñadores pueden llevar el aprendizaje automático al límite y abordar la carga cada vez mayor del procesamiento de datos.
Los días felices de la PDA y Blackberry han quedado definitivamente atrás, pero el factor…
Tutorial sobre cómo pronosticar usando un modelo autorregresivo en PythonFoto de Aron Visuals en UnsplashForecasting…
Si tienes un iPhone, los AirPods Pro son la opción obvia para escuchar música, ¡aunque…
Ilustración de Alex Castro / The Verge Plus nuevos rumores sobre el quinto Galaxy Fold.…
Se rumorea que los auriculares premium de próxima generación de Apple, los AirPods Max 2,…
El desarrollador Motive Studio y el editor EA han lanzado un nuevo tráiler de la…