Quando se trata de computação cerebral, o tempo é tudo. É como os neurônios se conectam em circuitos. É como esses circuitos processam dados altamente complexos, levando a ações que podem significar vida ou morte. É assim que nossos cérebros podem tomar decisões em frações de segundo, mesmo quando confrontados com circunstâncias inteiramente novas. E fazemos isso sem fritar o cérebro devido ao extenso consumo de energia.
Para reformular, o cérebro é um excelente exemplo de um computador extremamente poderoso para imitar – e os cientistas e engenheiros da computação deram os primeiros passos nesse sentido. O campo da computação neuromórfica busca recriar a arquitetura do cérebro e as habilidades de processamento de dados com novos chips de hardware e algoritmos de software. Pode ser um caminho para a verdadeira inteligência artificial.
Mas falta um elemento crucial. A maioria dos algoritmos que alimentam chips neuromórficos só se preocupam com a contribuição de cada neurônio artificial – isto é, com que força eles se conectam entre si, o que é chamado de “peso sináptico”. O que falta – mas é equivalente ao funcionamento interno do nosso cérebro – é o tempo.
Este mês, uma equipe afiliada ao Projeto Cérebro Humano, o principal empreendimento de neurociência de big data da União Europeia, acrescentou o elemento do tempo para um algoritmo neuromórfico. Os resultados foram então implementados em hardware físico – o BrainScaleS-2 plataforma neuromórfica – e confrontada com GPUs de última geração e soluções neuromórficas convencionais.
“Em comparação com as redes neurais abstratas usadas na aprendizagem profunda, os arquétipos mais biológicos… ainda ficam para trás em termos de desempenho e escalabilidade” devido à sua complexidade inerente, disseram os autores.
Em vários testes, o algoritmo comparou “favoravelmente, em termos de precisão, latência e eficiência energética” em um teste de benchmark padrão, dito Dra. Charlotte Frenkel da Universidade de Zurique e ETH Zurich na Suíça, que não esteve envolvida no estudo. Ao adicionar um componente temporal à computação neuromórfica, poderíamos inaugurar uma nova era de IA altamente eficiente que passa de tarefas de dados estáticos – digamos, reconhecimento de imagem – para uma que encapsula melhor o tempo. Pense em vídeos, sinais biológicos ou fala do cérebro para o computador.
Para o autor principal, Dr. Mihai Petrovici, o potencial vai em ambos os sentidos. “Nosso trabalho não é interessante apenas para computação neuromórfica e hardware de inspiração biológica. Também reconhece a necessidade… de transferir as chamadas abordagens de aprendizagem profunda para a neurociência e, assim, desvendar ainda mais os segredos do cérebro humano”, disse ele. dito.
Vamos conversar sobre picos
Na raiz do novo algoritmo está um princípio fundamental na computação cerebral: picos.
Vamos dar uma olhada em um neurônio altamente abstraído. É como um rolo de tootsie, com uma seção central bulbosa flanqueada por duas embalagens que se estendem para fora. Um lado é a entrada – uma árvore intrincada que recebe sinais de um neurônio anterior. A outra é a saída, enviando sinais para outros neurônios usando naves semelhantes a bolhas cheias de produtos químicos, que por sua vez desencadeiam uma resposta elétrica na extremidade receptora.
Aqui está o ponto crucial: para que toda essa sequência ocorra, o neurônio precisa “aumentar”. Se, e somente se, o neurônio receber um nível de entrada suficientemente alto – um mecanismo de redução de ruído bem integrado – a parte bulbosa gerará um pico que percorrerá os canais de saída para alertar o próximo neurônio.
Mas os neurônios não usam apenas um pico para transmitir informações. Em vez disso, eles aumentam em uma sequência temporal. Pense nisso como o código Morse: o momento em que ocorre uma explosão elétrica carrega uma grande quantidade de dados. É a base para os neurônios se conectarem em circuitos e hierarquias, permitindo um processamento altamente eficiente em termos energéticos.
Então, por que não adotar a mesma estratégia para computadores neuromórficos?
Um chip semelhante ao cérebro espartano
Em vez de mapear os picos de um único neurônio artificial – uma tarefa hercúlea – a equipe se concentrou em uma única métrica: quanto tempo leva para um neurônio disparar.
A ideia por trás do código “tempo para o primeiro pico” é simples: quanto mais tempo um neurônio leva para atingir o pico, mais baixos serão seus níveis de atividade. Comparado à contagem de picos, é uma maneira extremamente esparsa de codificar a atividade de um neurônio, mas traz vantagens. Como apenas a latência até a primeira vez que um neurônio se ativa é usada para codificar a ativação, ela captura a capacidade de resposta do neurônio sem sobrecarregar o computador com muitos pontos de dados. Em outras palavras, é rápido, eficiente em termos energéticos e fácil.
Em seguida, a equipe codificou o algoritmo em um chip neuromórfico – o BrainScaleS-2, que emula aproximadamente “neurônios” simples dentro de sua estrutura, mas executa mais de 1,000 vezes mais rápido do que nossos cérebros biológicos. A plataforma possui mais de 500 neurônios artificiais físicos, cada um capaz de receber 256 entradas por meio de sinapses configuráveis, onde neurônios biológicos trocam, processam e armazenam informações.
A configuração é híbrida. A “aprendizagem” é obtida em um chip que implementa o algoritmo dependente do tempo. No entanto, quaisquer atualizações no circuito neural – isto é, a intensidade com que um neurônio se conecta a outro – são obtidas por meio de uma estação de trabalho externa, algo chamado de “treinamento in-the-loop”.
Num primeiro teste, o algoritmo foi desafiado com a tarefa “Yin-Yang”, que exige que o algoritmo analise diferentes áreas do símbolo oriental tradicional. O algoritmo se destacou, com uma precisão média de 95%.
Em seguida, a equipe desafiou a configuração com uma tarefa clássica de aprendizado profundo:MNIST, um conjunto de dados de números manuscritos que revolucionou a visão computacional. O algoritmo se destacou novamente, com quase 97% de precisão. Ainda mais impressionante, o sistema BrainScaleS-2 levou menos de um segundo para classificar 10,000 amostras de teste, com consumo relativo de energia extremamente baixo.
Colocando esses resultados em contexto, a equipe comparou em seguida o desempenho do BrainScaleS-2 – armado com o novo algoritmo – com plataformas comerciais e outras plataformas neuromórficas. Pegar Spinnaker, uma arquitetura massiva e paralela distribuída que também imita computação neural e picos. O novo algoritmo foi 100 vezes mais rápido no reconhecimento de imagens, consumindo apenas uma fração da energia que o SpiNNaker consome. Resultados semelhantes foram observados com True North, o chip neuromórfico precursor da IBM.
O que vem a seguir?
As duas características computacionais mais valiosas do cérebro – eficiência energética e processamento paralelo – estão agora inspirando fortemente a próxima geração de chips de computador. O objetivo? Construir máquinas que sejam tão flexíveis e adaptáveis quanto nossos próprios cérebros, usando apenas uma fração da energia necessária para nossos atuais chips baseados em silício.
No entanto, em comparação com a aprendizagem profunda, que depende de redes neurais artificiais, as biologicamente plausíveis definharam. Parte disso, explicou Frenkel, é a dificuldade de “atualizar” esses circuitos por meio do aprendizado. No entanto, com o BrainScaleS-2 e um toque de dados de temporização, agora isso é possível.
Ao mesmo tempo, ter um árbitro “externo” para atualizar as conexões sinápticas dá a todo o sistema algum tempo para respirar. O hardware neuromórfico, semelhante à confusão da nossa computação cerebral, está repleto de incompatibilidades e erros. Com o chip e um árbitro externo, todo o sistema pode aprender a adaptar-se a esta variabilidade e, eventualmente, compensar – ou mesmo explorar – as suas peculiaridades para uma aprendizagem mais rápida e flexível.
Para Frenkel, o poder do algoritmo reside na sua dispersão. O cérebro, explicou ela, é alimentado por códigos esparsos que “poderiam explicar os tempos de reação rápidos… como no processamento visual”. Em vez de ativar regiões cerebrais inteiras, apenas algumas redes neurais são necessárias – como percorrer rodovias vazias em vez de ficar preso no trânsito da hora do rush.
Apesar de seu poder, o algoritmo ainda apresenta soluços. Ele tem dificuldade na interpretação de dados estáticos, embora seja excelente com sequências de tempo – por exemplo, fala ou sinais biológicos. Mas para Frenkel, é o início de uma nova estrutura: informações importantes podem ser codificadas com uma métrica flexível, mas simples, e generalizadas para enriquecer o processamento de dados baseado no cérebro e na IA com uma fração dos custos de energia tradicionais.
“[Isso]… pode ser um trampolim importante para aumentar o hardware neuromórfico para finalmente demonstrar uma vantagem competitiva sobre as abordagens convencionais de redes neurais”, disse ela.
Crédito da imagem: Classificação de pontos de dados no conjunto de dados Yin-Yang, por Göltz e Kriener et al. (Heidelberg/Berna)
- 000
- 100
- Vantagem
- AI
- algoritmo
- algoritmos
- Permitindo
- arquitetura
- redes neurais artificiais
- autores
- referência
- Big Data
- miolos
- construir
- Cuidado
- canais
- produtos químicos
- lasca
- Chips
- código
- comercial
- componente
- Visão de Computador
- computadores
- computação
- Coneções
- consumo
- custos
- crédito
- Atual
- dados,
- informática
- deep learning
- Demanda
- oriental
- eficiência
- energia
- Engenheiros
- ETH
- ETH Zurich
- Europa
- RÁPIDO
- Finalmente
- Fogo
- Primeiro nome
- primeira vez
- Quadro
- GPUs
- Hardware
- Alta
- rodovias
- Como funciona o dobrador de carta de canal
- HTTPS
- HÍBRIDO
- IBM
- idéia
- imagem
- Reconhecimento de Imagem
- INFORMAÇÕES
- envolvido
- IT
- conduzir
- principal
- APRENDER
- aprendizagem
- Nível
- longo
- máquinas
- movimentos
- rede
- redes
- Neural
- rede neural
- redes neurais
- Neuroscience
- Ruído
- Norte
- números
- Outros
- atuação
- físico
- plataforma
- Plataformas
- poder
- projeto
- reação
- resposta
- Resultados
- Rolo
- apressar
- cientistas
- navios
- simples
- So
- Software
- Soluções
- começo
- loja
- Estratégia
- Estudo
- Suíça
- .
- teste
- testes
- tempo
- tocar
- tráfego
- Training
- universidade
- Atualizações
- VÍDEOS
- visão
- Riqueza
- QUEM
- Wikipedia
- Fio
- palavras
- Atividades:
- Zurique