Il nuovo chip neuromorfo Spiking potrebbe inaugurare un'era di intelligenza artificiale altamente efficiente

Nodo di origine: 1456889

Quando si parla di brain computing, il tempismo è tutto. È così che i neuroni si collegano ai circuiti. È così che questi circuiti elaborano dati altamente complessi, portando ad azioni che possono significare la vita o la morte. È così che il nostro cervello può prendere decisioni in una frazione di secondo, anche di fronte a circostanze completamente nuove. E lo facciamo senza friggere il cervello a causa di un eccessivo consumo di energia.

Per riformulare, il cervello costituisce un eccellente esempio di computer estremamente potente da imitare, e scienziati e ingegneri informatici hanno mosso i primi passi in tal senso. Il campo dell'informatica neuromorfica mira a ricreare l'architettura del cervello e le capacità di elaborazione dei dati con nuovi chip hardware e algoritmi software. Potrebbe essere un percorso verso il vero intelligenza artificiale.

Ma manca un elemento cruciale. La maggior parte degli algoritmi che alimentano i chip neuromorfici si preoccupano solo del contributo di ciascun neurone artificiale, ovvero della forza con cui si connettono tra loro, soprannominato “peso sinaptico”. Ciò che manca, ma equivale al funzionamento interiore del nostro cervello, è il tempismo.

Questo mese, ha aggiunto un team affiliato allo Human Brain Project, il progetto di punta dell'Unione europea nel campo delle neuroscienze sui big data l'elemento tempo ad un algoritmo neuromorfico. I risultati sono stati quindi implementati su hardware fisico: il BrainScaleS-2 piattaforma neuromorfica e confrontata con GPU all'avanguardia e soluzioni neuromorfiche convenzionali.

"Rispetto alle reti neurali astratte utilizzate nell'apprendimento profondo, gli archetipi più biologici... sono ancora indietro in termini di prestazioni e scalabilità" a causa della loro complessità intrinseca, hanno affermato gli autori.

In diversi test, l’algoritmo si è confrontato “favorevolmente, in termini di precisione, latenza ed efficienza energetica” con un test benchmark standard, disse Dr. Charlotte Frenkel dell'Università di Zurigo e dell'ETH di Zurigo in Svizzera, che non è stata coinvolta nello studio. Aggiungendo una componente temporale al calcolo neuromorfico, potremmo inaugurare una nuova era di IA altamente efficiente che si sposta da attività di dati statici – ad esempio, il riconoscimento delle immagini – a un’era che incapsula meglio il tempo. Pensa ai video, ai biosegnali o al discorso dal cervello al computer.

Per l'autore principale, il dottor Mihai Petrovici, il potenziale va in entrambe le direzioni. “Il nostro lavoro non è interessante solo per il calcolo neuromorfico e l’hardware ispirato alla biologia. Riconosce inoltre la richiesta… di trasferire i cosiddetti approcci di apprendimento profondo alle neuroscienze e quindi svelare ulteriormente i segreti del cervello umano”, ha affermato. disse.

Parliamo di Spikes

Alla base del nuovo algoritmo c’è un principio fondamentale del brain computing: gli picchi.

Diamo un'occhiata a un neurone altamente astratto. È come un rotolo di tootsie, con una sezione centrale bulbosa fiancheggiata da due involucri che si estendono verso l'esterno. Un lato è l’input, un albero intricato che riceve segnali da un neurone precedente. L'altro è l'output, che invia segnali ad altri neuroni utilizzando navicelle simili a bolle piene di sostanze chimiche, che a loro volta innescano una risposta elettrica sul lato ricevente.

Ecco il punto cruciale: affinché l'intera sequenza avvenga, il neurone deve "accendersi". Se, e solo se, il neurone riceve un livello di input sufficientemente elevato (un meccanismo di riduzione del rumore ben integrato) la parte bulbosa genererà un picco che viaggia lungo i canali di uscita per allertare il neurone successivo.

Ma i neuroni non usano solo un picco per trasmettere informazioni. Piuttosto, aumentano in una sequenza temporale. Pensatelo come il codice Morse: il momento in cui si verifica un'esplosione elettrica trasporta una grande quantità di dati. È la base per i neuroni che si collegano in circuiti e gerarchie, consentendo elaborazioni ad alta efficienza energetica.

Allora perché non adottare la stessa strategia per i computer neuromorfici?

Un chip simile a un cervello spartano

Invece di mappare i picchi di un singolo neurone artificiale – un compito titanico – il team si è concentrato su un singolo parametro: quanto tempo impiega un neurone ad attivarsi.

L’idea alla base del codice “time-to-first-spike” è semplice: più tempo impiega un neurone per raggiungere il picco, più bassi sono i suoi livelli di attività. Rispetto al conteggio dei picchi, è un modo estremamente scarno per codificare l'attività di un neurone, ma presenta dei vantaggi. Poiché per codificare l'attivazione viene utilizzata solo la latenza del primo momento in cui un neurone si rianima, viene catturata la reattività del neurone senza sovraccaricare un computer con troppi punti dati. In altre parole, è veloce, efficiente dal punto di vista energetico e facile.

Il team ha successivamente codificato l'algoritmo su un chip neuromorfico: il BrainScaleS-2, che emula grossolanamente semplici “neuroni” all’interno della sua struttura, ma funziona oltre 1,000 volte più veloce rispetto al nostro cervello biologico. La piattaforma ha oltre 500 neuroni artificiali fisici, ciascuno in grado di ricevere 256 input attraverso sinapsi configurabili, dove i neuroni biologici scambiano, elaborano e archiviano informazioni.

La configurazione è ibrida. L’“apprendimento” avviene su un chip che implementa l’algoritmo dipendente dal tempo. Tuttavia, qualsiasi aggiornamento al circuito neurale, ovvero la forza con cui un neurone si connette a un altro, viene ottenuto tramite una workstation esterna, qualcosa chiamato “addestramento in-the-loop”.

In un primo test, l’algoritmo è stato messo alla prova con il compito “Yin-Yang”, che richiede all’algoritmo di analizzare diverse aree del tradizionale simbolo orientale. L'algoritmo eccelleva, con una precisione media del 95%.

Il team ha poi messo alla prova la configurazione con una classica attività di deep learning:MNIST, un set di dati di numeri scritti a mano che ha rivoluzionato la visione artificiale. L’algoritmo ha nuovamente eccelso, con una precisione di quasi il 97%. Ancora più impressionante, il sistema BrainScaleS-2 ha impiegato meno di un secondo per classificare 10,000 campioni di prova, con un consumo energetico relativo estremamente basso.

Mettendo questi risultati nel contesto, il team ha poi confrontato le prestazioni di BrainScaleS-2, armato del nuovo algoritmo, con quelle commerciali e di altre piattaforme neuromorfiche. Prendere spinnaker, un'enorme architettura distribuita in parallelo che imita anche il calcolo e i picchi neurali. Il nuovo algoritmo era oltre 100 volte più veloce nel riconoscimento delle immagini consumando solo una frazione dell'energia consumata da SpiNNaker. Risultati simili sono stati osservati con True North, il chip neuromorfico IBM precursore.

What Next?

Le due caratteristiche informatiche più preziose del cervello – l’efficienza energetica e l’elaborazione parallela – stanno ora ispirando fortemente la prossima generazione di chip per computer. L'obiettivo? Costruisci macchine flessibili e adattive come il nostro cervello, utilizzando solo una frazione dell'energia richiesta per i nostri attuali chip a base di silicio.

Tuttavia, rispetto al deep learning, che si basa su reti neurali artificiali, quelle biologicamente plausibili hanno languito. Parte di ciò, ha spiegato Frenkel, è la difficoltà di “aggiornare” questi circuiti attraverso l’apprendimento. Tuttavia, con BrainScaleS-2 e alcuni dati temporali, ora è possibile.

Allo stesso tempo, avere un arbitro “esterno” per l’aggiornamento delle connessioni sinaptiche dà all’intero sistema un po’ di tempo per respirare. L’hardware neuromorfico, simile al disordine dei nostri calcoli cerebrali, è disseminato di discrepanze ed errori. Con il chip e un arbitro esterno, l’intero sistema può imparare ad adattarsi a questa variabilità ed eventualmente compensare, o addirittura sfruttare, le sue peculiarità per un apprendimento più rapido e flessibile.

Per Frenkel, la forza dell'algoritmo risiede nella sua scarsità. Il cervello, ha spiegato, è alimentato da codici sparsi che “potrebbero spiegare i tempi di reazione rapidi… come per l’elaborazione visiva”. Invece di attivare intere regioni del cervello, sono necessarie solo poche reti neurali, come sfrecciare lungo autostrade deserte invece di rimanere bloccati nel traffico dell’ora di punta.

Nonostante la sua potenza, l’algoritmo ha ancora dei singhiozzi. Ha difficoltà a interpretare i dati statici, anche se eccelle con le sequenze temporali, ad esempio con il parlato o con i segnali biologici. Ma per Frenkel è l’inizio di un nuovo quadro: informazioni importanti possono essere codificate con una metrica flessibile ma semplice e generalizzate per arricchire l’elaborazione dei dati basata sul cervello e sull’intelligenza artificiale con una frazione dei tradizionali costi energetici.

"[Esso]... potrebbe essere un importante trampolino di lancio per potenziare l'hardware neuromorfico e dimostrare finalmente un vantaggio competitivo rispetto agli approcci convenzionali alle reti neurali", ha affermato.

Credito immagine: classificazione dei punti dati nel set di dati Yin-Yang, di Göltz e Kriener et al. (Heidelberg/Berna)

Fonte: https://singularityhub.com/2021/11/09/new-spiking-neuromorphic-chip-could-usher-in-an-era-of-highly-efficient-ai/

Timestamp:

Di più da Hub di singolarità