Categories: NoticiasTecnología

Resumen de hardware de AI: chips neuromórficos y SoC de redes neuronales

Los algoritmos de AI requieren muchos recursos para funcionar. ¿Qué hardware puede manejar ejecutándolos en el borde?

Esta semana, Intel anunció un nuevo sistema neuromórfico con sus chips Loihi que imita los procesos informáticos de ocho millones de neuronas. Combinado con la noticia de ayer de que la Universidad de Michigan anunció un chip de matriz de memristores que puede permitir la inteligencia artificial localizada (inteligencia artificial), este parece ser el momento oportuno para hablar sobre el hardware de la IA, que está empezando a ser cada vez más común.

El chip de matriz de memristores de la Universidad de Michigan se encuentra en un chip personalizado más grande. Foto por Robert Coelius, Michigan Comunicaciones de Ingeniería y Marketing.

¿Pero cuáles son las principales diferencias entre las redes neuronales y los sistemas neuromórficos? ¿Y qué hardware está disponible para los desarrolladores de hoy?

Este es un resumen rápido de los sistemas de inteligencia artificial no basados ​​en la nube y tres ejemplos de hardware diseñados para llevar la inteligencia artificial a la palma de su mano.

The Push for Edge Computing para la IA

Si bien la IA aún se encuentra en sus inicios, podemos decir con seguridad que se incluye regularmente algún tipo de IA en los productos de uso diario. Las ventajas de incluir la IA en un proyecto a menudo se pasan por alto, ya que la IA puede mejorar drásticamente la interacción del usuario, predecir el comportamiento y, por lo tanto, permitir tiempos de respuesta reducidos (como los que se encuentran en automóviles), y ayudar a mejorar la eficiencia (como las líneas de producción) .

Pero AI no está exenta de preocupaciones y existe una tendencia creciente de usuarios que no desean que los datos potencialmente confidenciales (como las conversaciones) se envíen y almacenen en un centro de datos. Dado que los sistemas de IA basados ​​en la nube tienen otros problemas inherentes, como la latencia y la disponibilidad de internet, existe un impulso para que la AI se mueva hacia el borde en forma de "computación perimetral", por lo que los dispositivos locales procesan los datos y ejecutan los algoritmos de AI de manera local.

Neuromorfos vs redes neuronales

Hay varias formas en que se puede implementar la IA, pero las dos principales que están subiendo al escenario son la programación neuromórfica y las redes neuronales.

Un sistema de AI neuromórfico es uno que se parece mucho a cómo funcionan las neuronas cerebrales en ese circuito y el software se combinan para producir neuronas que pueden desencadenar otras neuronas, formar conexiones y responder a estímulos. Un ejemplo de cómo podría usarse el hardware para replicar este proceso serían los microcontroladores y los FPGA. Los microcontroladores se comportan de manera similar a las neuronas, por lo que pueden procesar los datos entrantes y producir una salida, mientras que los FPGA se comportan de manera similar a las conexiones entre las neuronas en las que pueden crear, romper y redireccionar las conexiones entre las neuronas.

La característica clave de los sistemas neuromórficos es que funcionan con el mismo principio que las neuronas en el cerebro, ya que las señales pueden disparar neuronas que hacen que envíen señales a otras neuronas.

Sin embargo, una red neuronal es una serie de nodos conectados por enlaces ponderados que se asemejan a las neuronas en un cerebro. Sin embargo, a diferencia de los sistemas neuromórficos, las redes neuronales no tienen neuronas que disparan y envían pulsos a otros nodos. En cambio, las redes neuronales activan todos los nodos que toman entradas, las suman, aplican coeficientes y ponderaciones y luego producen sus salidas.

Eficiencia de AI en la ejecución

Uno de los mayores obstáculos de la IA es la complejidad involucrada y la dificultad para ejecutarlos de manera eficiente. La ejecución de sistemas de inteligencia artificial que pueden reconocer objetos, determinar quién está hablando y responder a su entorno puede requerir muchos recursos, lo cual es una de las razones principales por las que muchos sistemas de inteligencia artificial se ejecutan en centros de datos basados ​​en la nube.

Dado que existe una gran demanda de servicios de inteligencia artificial en los dispositivos integrados que pueden o no tener una conexión a Internet, la necesidad de un hardware dedicado de inteligencia artificial se hace evidente. El hardware dedicado de AI puede ayudar a descargar el trabajo en el procesador principal, que es mejor dejar de tomar información del usuario y actualizar las interfaces gráficas que dan como resultado un sistema más sensible (es decir, menos esperar a que responda Alexa después de que se le haga una pregunta).

AI se reduce a dos tareas principales; Aprendizaje y ejecución. La fase de aprendizaje de un sistema de IA es donde se presenta con datos y luego se aprende qué datos son y cómo deberían comportarse. Por ejemplo, un sistema de IA que está diseñado para reconocer a los gatos debe mostrar muchas imágenes de gatos e imágenes de donde no hay gatos.

La segunda tarea, la ejecución, es donde el sistema AI se alimenta de datos y luego los procesa para producir una respuesta adecuada. En el ejemplo del gato, este sería el sistema AI que mira objetos aleatorios y determina si son gatos. La fase de aprendizaje de la IA es algo que se puede hacer en un centro de datos, pero el algoritmo de AI resultante (como una red neuronal) puede transferirse desde un centro de datos y luego descargarse a un dispositivo para su uso.

Por lo tanto, la red neuronal que se ha enseñado a reconocer los gatos se puede transferir a un dispositivo más pequeño en el que se ejecuta la red. Sin embargo, la fase de ejecución sigue siendo una tarea gigantesca, por lo que los desarrolladores de hardware están empezando a producir hardware AI.

Google Coral – Un tablero de desarrollo de red neuronal

El hardware de red neuronal es algo que está comenzando a integrarse en los modernos sistemas integrados. Uno de los mayores ejemplos de hardware de redes neuronales es la gama de productos Google Coral.

La placa de desarrollo es una computadora de una sola placa que incluye todo el hardware típico de SBC, como un ARM53 de cuatro núcleos y 1 GB de RAM, pero también incluye un coprocesador de AI.

La parte inferior del tablero de desarrollo de Google Coral. Imagen de google

El coprocesador se llama Google Edge TPU, que es un dispositivo dedicado a descargar algoritmos AI TensorFlow del procesador principal que puede acelerar las aplicaciones de AI liberando la CPU del procesamiento de datos de AI, pero también mediante el uso de hardware dedicado a tareas de AI. Los TPU de Google (unidades de procesamiento de tensor) han existido durante varios años y son parte de una iniciativa para ofrecer acceso al procesamiento en la nube, un procesamiento específicamente escalable que puede manejar grandes sumas de datos para AI. Hace aproximadamente un año, TPU 3.0 era un elemento clave para deleitar y / o asustar a las audiencias en el evento principal de Google I / O de 2018, donde el Proyecto Dúplex sonaba increíblemente humano en una demostración de AI de texto a voz.

Además de la placa de desarrollo, Google también ha lanzado el acelerador USB, que es un coprocesador TensorFlow que se encuentra en un dispositivo USB. Esto puede proporcionar las capacidades de TensorFlow al sistema conectado, lo que no solo puede ayudar a reducir el uso del procesador, sino que también elimina la necesidad de cambios drásticos de hardware (por ejemplo, una Raspberry Pi puede actualizarse con el uso del USB Accelerator).

Chip cerebral – Computación neuromórfica SoC

Si bien el hardware neuromórfico no es tan común como el hardware de red neuronal, hay algunos ejemplos. Un ejemplo reciente es BrainChip, que utiliza el concepto de red neuronal de punta para proporcionar la ejecución de AI. A diferencia de las redes neuronales, solo las neuronas que se están utilizando consumen energía, lo que significa que un sistema neuronal de punta puede ser significativamente más eficiente que sus contrapartes de redes neuronales.

El NSoC (sistema neuromórfico en chip) de BrainChip tiene 1.2 millones de neuronas con 10 mil millones de sinapsis y es aproximadamente 100 veces más eficiente que el chip neuromórfico Intel Loihi.

El BrainChip Akida NSoC. Imagen de BrainChip

Los productos de BrainChip incluyen todo el hardware común que uno esperaría de cualquier coprocesador integrado como PCIe, USB3.0, SPI, UART e I3S. El BrainChip NSoC, sin embargo, también tiene un complejo de conversión que incluye un convertidor de píxeles y un convertidor de datos genérico para convertir de manera eficiente los datos entrantes a uno compatible con la red neuronal con púas.

Qualcomm Snapdragon AI – SoC de red neuronal

Qualcomm es otra compañía que ha reconocido la importancia de la inteligencia artificial en el diseño integrado. Como resultado, han integrado hardware dedicado en sus dispositivos y han lanzado SDK que pueden usar sus dispositivos integrados de manera más eficiente. Por ejemplo, el Snapdragon 855 incluye una CPU Qualcomm Kyro 485, una GPU Qualcomm Adreno 640 y una Qualcomm Hexagon 690 DSP que se usan juntas para ejecutar redes neuronales AI con mayor eficacia.

El Qualcomm Snapdragon 855 SoC. Imagen de Qualcomm

La plataforma móvil Snapdragon 845 SoC de 2017 ya estaba orientada a tareas de procesamiento de datos pesados, pero se dice que la plataforma 855 es específicamente adecuada para aplicaciones móviles y se considera una actualización importante para dispositivos 5G.

Lee mas


Si bien el hardware de AI todavía está en su infancia, se está comercializando y la mayoría se centra en redes neuronales complicadas, como la gama de productos Coral y la gama Qualcomm Snapdragon.

Sin embargo, las redes neuronales enriquecidas (SNN) podrían ser la clave para el futuro, especialmente en la computación perimetral si realmente son más eficientes tanto en tiempo de ejecución como en consumo de energía. Por otro lado, su mayor complejidad puede hacer que sean una opción más cara.

De cualquier manera, el hardware de AI ya está aquí y solo será una cuestión de tiempo antes de que incluso los microcontroladores incluyan algún periférico o motor de AI rudimentario que pueda acelerar las tareas triviales de AI.

ga('create', 'UA-1454132-1', 'auto'); ga('require', 'GTM-MMWSMVL'); ga('require', 'displayfeatures'); ga('set',{'dimension1':'computing,iot,embedded,development-boards,computing,mobile'}); ga('set',{'contentGroup1':'computing,iot,embedded,development-boards,computing,mobile'});

ga('set',{'dimension3':"July 18, 2019"});

ga('set',{'dimension4':"Robin Mitchell"});

ga('send', 'pageview');

!function(f,b,e,v,n,t,s){if(f.fbq)return;n=f.fbq=function(){n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments)};if(!f._fbq)f._fbq=n; n.push=n;n.loaded=!0;n.version='2.0';n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0];s.parentNode.insertBefore(t,s)}(window, document,'script','https://connect.facebook.net/en_US/fbevents.js'); fbq('init', '1808435332737507'); // Insert your pixel ID here. fbq('track', 'PageView'); fbq('track', 'ViewContent', { content_ids: ['computing','iot','embedded','development-boards','computing','mobile'], content_type: 'category'});

_linkedin_data_partner_id = "353081"; (function(){var s = document.getElementsByTagName("script")[0]; var b = document.createElement("script"); b.type = "text/javascript";b.async = true; b.src = "https://snap.licdn.com/li.lms-analytics/insight.min.js"; s.parentNode.insertBefore(b, s);})(); } if(jstz.determine().name().indexOf("Europe") === -1) { showSocialCode(); // NOT EU } else { showSocialCode(); window.addEventListener("load", function () { window.cookieconsent.initialise({ "palette": { "popup": { "background": "#252e39" }, "button": { "background": "#14a7d0" } }, "type": "opt-out", "content": { "message": "This website uses tracking cookies to ensure you get the best experience on our website.", "href": "https://www.allaboutcircuits.com/privacy-policy/", "dismiss": "OK, GOT IT" }, onInitialise: function (status) { var type = this.options.type; var didConsent = this.hasConsented(); if (type == 'opt-out' && didConsent) { console.log("eu"); //showSocialCode(); } },

onStatusChange: function (status, chosenBefore) { var type = this.options.type; var didConsent = this.hasConsented(); if (type == 'opt-out' && didConsent) { console.log("eu"); //showSocialCode(); } },

onRevokeChoice: function () { var type = this.options.type; if (type == 'opt-out') { console.log("eu"); //showSocialCode(); } },

}) }); }

Maria Montero

Me apasiona la fotografía y la tecnología que nos permite hacer todo lo que siempre soñamos. Soñadora y luchadora. Actualmente residiendo en Madrid.

Recent Posts

Máquina de mano Lean, Green, Raspberry Pi

Los días felices de la PDA y Blackberry han quedado definitivamente atrás, pero el factor…

2 years ago

Cómo pronosticar series de tiempo usando autorregresión

Tutorial sobre cómo pronosticar usando un modelo autorregresivo en PythonFoto de Aron Visuals en UnsplashForecasting…

2 years ago

Aquí están todas las formas en que puede cargar su AirPods Pro

Si tienes un iPhone, los AirPods Pro son la opción obvia para escuchar música, ¡aunque…

2 years ago

Las principales noticias tecnológicas del lunes: la prohibición de clientes de terceros de Twitter parece no ser un accidente

Ilustración de Alex Castro / The Verge Plus nuevos rumores sobre el quinto Galaxy Fold.…

2 years ago

AirPods Max 2: aquí están las características más solicitadas

Se rumorea que los auriculares premium de próxima generación de Apple, los AirPods Max 2,…

2 years ago

El remake de Dead Space continúa luciendo terriblemente genial en el nuevo tráiler de la historia

El desarrollador Motive Studio y el editor EA han lanzado un nuevo tráiler de la…

2 years ago