El nuevo chip neuromórfico de Spiking podría marcar el comienzo de una era de inteligencia artificial altamente eficiente

Nodo de origen: 1456889

Cuando se trata de computación cerebral, el tiempo lo es todo. Así es como las neuronas se conectan a los circuitos. Así es como estos circuitos procesan datos altamente complejos, lo que lleva a acciones que pueden significar la vida o la muerte. Así es como nuestros cerebros pueden tomar decisiones en una fracción de segundo, incluso cuando se enfrentan a circunstancias completamente nuevas. Y lo hacemos sin freír el cerebro con un consumo energético excesivo.

Para reformular, el cerebro es un excelente ejemplo de una computadora extremadamente poderosa para imitar, y los científicos e ingenieros informáticos han dado los primeros pasos para hacerlo. El campo de la computación neuromórfica busca recrear la arquitectura del cerebro y las capacidades de procesamiento de datos con nuevos chips de hardware y algoritmos de software. Puede ser un camino hacia la verdadera inteligencia artificial.

Pero falta un elemento crucial. La mayoría de los algoritmos que alimentan los chips neuromórficos solo se preocupan por la contribución de cada neurona artificial, es decir, la fuerza con la que se conectan entre sí, lo que se denomina "peso sináptico". Lo que falta, pero equivalente al funcionamiento interno de nuestro cerebro, es el tiempo.

Este mes, un equipo afiliado al Proyecto Cerebro Humano, el principal esfuerzo de neurociencia de big data de la Unión Europea, agregó el elemento del tiempo a un algoritmo neuromórfico. Luego, los resultados se implementaron en hardware físico: el Escala cerebralS-2 plataforma neuromórfica, y se enfrentó a GPU de última generación y soluciones neuromórficas convencionales.

"En comparación con las redes neuronales abstractas utilizadas en el aprendizaje profundo, los arquetipos más biológicos... todavía están rezagados en términos de rendimiento y escalabilidad" debido a su complejidad inherente, dijeron los autores.

En varias pruebas, el algoritmo se comparó "favorablemente, en términos de precisión, latencia y eficiencia energética" en una prueba de referencia estándar, dijo Dr. Charlotte Frenkel de la Universidad de Zurich y ETH Zurich en Suiza, que no participó en el estudio. Al agregar un componente temporal a la computación neuromórfica, podríamos marcar el comienzo de una nueva era de IA altamente eficiente que pasa de tareas de datos estáticos, por ejemplo, reconocimiento de imágenes, a una que encapsula mejor el tiempo. Piense en videos, bioseñales o discurso de cerebro a computadora.

Para el autor principal, el Dr. Mihai Petrovici, el potencial va en ambos sentidos. “Nuestro trabajo no solo es interesante para la computación neuromórfica y el hardware de inspiración biológica. También reconoce la demanda... de transferir los llamados enfoques de aprendizaje profundo a la neurociencia y, por lo tanto, revelar aún más los secretos del cerebro humano”, dijo. dijo.

Hablemos de picos

En la raíz del nuevo algoritmo hay un principio fundamental en la computación cerebral: los picos.

Echemos un vistazo a una neurona altamente abstraída. Es como un tootsie roll, con una sección central abultada flanqueada por dos envoltorios que se extienden hacia afuera. Un lado es la entrada, un árbol intrincado que recibe señales de una neurona anterior. El otro es la salida, enviando señales a otras neuronas utilizando naves con forma de burbujas llenas de productos químicos, que a su vez desencadenan una respuesta eléctrica en el extremo receptor.

Aquí está el quid: para que ocurra toda esta secuencia, la neurona tiene que "puntar". Si, y solo si, la neurona recibe un nivel de entrada lo suficientemente alto (un mecanismo de reducción de ruido muy bien integrado), la parte bulbosa generará un pico que viajará por los canales de salida para alertar a la siguiente neurona.

Pero las neuronas no solo usan un pico para transmitir información. Más bien, se disparan en una secuencia de tiempo. Piense en ello como el código Morse: el momento en que ocurre una explosión eléctrica contiene una gran cantidad de datos. Es la base para que las neuronas se conecten en circuitos y jerarquías, lo que permite un procesamiento altamente eficiente desde el punto de vista energético.

Entonces, ¿por qué no adoptar la misma estrategia para las computadoras neuromórficas?

Un chip similar al cerebro espartano

En lugar de mapear los picos de una sola neurona artificial, una tarea hercúlea, el equipo perfeccionó una sola métrica: cuánto tiempo tarda una neurona en dispararse.

La idea detrás del código de "tiempo para el primer pico" es simple: cuanto más tiempo tarda una neurona en dispararse, más bajos son sus niveles de actividad. En comparación con el conteo de picos, es una forma extremadamente escasa de codificar la actividad de una neurona, pero tiene ventajas. Debido a que solo se usa la latencia de la primera vez que una neurona se activa para codificar la activación, captura la capacidad de respuesta de la neurona sin abrumar a una computadora con demasiados puntos de datos. En otras palabras, es rápido, ahorra energía y es fácil.

A continuación, el equipo codificó el algoritmo en un chip neuromórfico: el Escala cerebralS-2, que emula aproximadamente "neuronas" simples dentro de su estructura, pero se ejecuta más de 1,000 veces más rápido que nuestros cerebros biológicos. La plataforma tiene más de 500 neuronas artificiales físicas, cada una capaz de recibir 256 entradas a través de sinapsis configurables, donde las neuronas biológicas intercambian, procesan y almacenan información.

La configuración es un híbrido. El “aprendizaje” se logra en un chip que implementa el algoritmo dependiente del tiempo. Sin embargo, cualquier actualización del circuito neuronal, es decir, la fuerza con la que una neurona se conecta a otra, se logra a través de una estación de trabajo externa, algo denominado "entrenamiento en el circuito".

En una primera prueba, el algoritmo fue desafiado con la tarea "Yin-Yang", que requiere que el algoritmo analice diferentes áreas en el símbolo oriental tradicional. El algoritmo sobresalió, con un promedio de 95 por ciento de precisión.

A continuación, el equipo desafió la configuración con una tarea clásica de aprendizaje profundo:MNIST, un conjunto de datos de números escritos a mano que revolucionó la visión artificial. El algoritmo volvió a sobresalir, con una precisión de casi el 97 por ciento. Aún más impresionante, el sistema BrainScaleS-2 tardó menos de un segundo en clasificar 10,000 XNUMX muestras de prueba, con un consumo de energía relativo extremadamente bajo.

Al poner estos resultados en contexto, el equipo luego comparó el rendimiento de BrainScaleS-2, armado con el nuevo algoritmo, con plataformas neuromórficas comerciales y de otro tipo. Tomar SpiNNaker, una arquitectura masiva distribuida en paralelo que también imita la computación neuronal y los picos. El nuevo algoritmo fue más de 100 veces más rápido en el reconocimiento de imágenes y consumió solo una fracción de la energía que consume SpiNNaker. Se observaron resultados similares con True North, el precursor del chip neuromórfico de IBM.

¿Y ahora qué?

Las dos características informáticas más valiosas del cerebro, la eficiencia energética y el procesamiento paralelo, inspiran ahora en gran medida a la próxima generación de chips informáticos. ¿La meta? Construya máquinas que sean tan flexibles y adaptables como nuestros propios cerebros mientras usa solo una fracción de la energía requerida para nuestros chips actuales basados ​​en silicio.

Sin embargo, en comparación con el aprendizaje profundo, que se basa en redes neuronales artificiales, las biológicamente plausibles han languidecido. Parte de esto, explicó Frenkel, es la dificultad de “actualizar” estos circuitos a través del aprendizaje. Sin embargo, con BrainScaleS-2 y un toque de datos de tiempo, ahora es posible.

Al mismo tiempo, tener un árbitro "externo" para actualizar las conexiones sinápticas le da a todo el sistema algo de tiempo para respirar. El hardware neuromórfico, similar al desorden de la computación de nuestro cerebro, está plagado de desajustes y errores. Con el chip y un árbitro externo, todo el sistema puede aprender a adaptarse a esta variabilidad y eventualmente compensar, o incluso explotar, sus peculiaridades para un aprendizaje más rápido y flexible.

Para Frenkel, el poder del algoritmo radica en su escasez. El cerebro, explicó, funciona con códigos dispersos que “podrían explicar los rápidos tiempos de reacción… como el procesamiento visual”. En lugar de activar regiones cerebrales completas, solo se necesitan unas pocas redes neuronales, como pasar zumbando por carreteras vacías en lugar de quedarse atrapado en el tráfico de la hora pico.

A pesar de su poder, el algoritmo todavía tiene contratiempos. Tiene dificultades para interpretar datos estáticos, aunque sobresale con secuencias de tiempo, por ejemplo, habla o bioseñales. Pero para Frenkel, es el comienzo de un nuevo marco: la información importante puede codificarse con una métrica flexible pero simple y generalizarse para enriquecer el procesamiento de datos basado en el cerebro y la IA con una fracción de los costos de energía tradicionales.

“[Eso]… puede ser un trampolín importante para aumentar el hardware neuromórfico para finalmente demostrar una ventaja competitiva sobre los enfoques de redes neuronales convencionales”, dijo.

Crédito de imagen: Clasificación de puntos de datos en el conjunto de datos Yin-Yang, por Göltz y Kriener et al. (Heidelberg / Berna)

Fuente: https://singularityhub.com/2021/11/09/new-spiking-neuromorphic-chip-could-usher-in-an-era-of-highly-ficient-ai/

Sello de tiempo:

Mas de Centro de Singularidad