IA é mais difícil do que pensamos: quatro falácias importantes na pesquisa de IA

Nó Fonte: 841691

A inteligência artificial está em todas as manchetes há quase uma década, pois os sistemas fizeram progressos rápidos em AI desafios como reconhecimento de imagem, processamento de linguagem natural e jogos. As empresas de tecnologia semearam algoritmos de aprendizado de máquina em mecanismos de busca e recomendação e sistemas de reconhecimento facial, e o OpenAI GPT-3 e DeepMind's AlfaFold prometem aplicações ainda mais práticas, desde a escrita até a codificação e as descobertas científicas.

De fato, estamos no meio de uma primavera de IA, com investimentos em tecnologia florescendo e um sentimento predominante de otimismo e possibilidade em relação ao que ela pode realizar e quando.

Desta vez, pode parecer diferente das primaveras anteriores de IA devido às aplicações práticas mencionadas acima e à proliferação de IA restrita em tecnologias que muitos de nós usamos todos os dias - como nossos smartphones, TVs, carros e aspiradores de pó, para citar apenas alguns. Mas também é possível que estejamos em uma onda de progresso de curto prazo na IA que logo se tornará parte do fluxo e refluxo de avanço, financiamento e sentimento que caracterizam o campo desde sua fundação em 1956.

A IA ficou aquém de muitas previsões feitas nas últimas décadas; 2020, por exemplo, foi anunciado por muitos como o ano auto-condução carros começaria a encher as estradas, transportando passageiros sem problemas enquanto eles se recostavam e aproveitavam o passeio. Mas o problema tem sido mais difícil do que o previsto e, em vez de hordas de táxis-robôs, os projetos mais avançados permanecem em testes. Enquanto isso, alguns no campo acreditam que a forma dominante de IA – um tipo de aprendizado de máquina baseado em redes neurais – pode perder força em breve sem uma série de avanços cruciais.

Em um artigo intitulado Por que a IA é mais difícil do que pensamos, publicado na semana passada no servidor de pré-impressão arXiv, Melanie Mitchell, professor de ciência da computação da Portland State University atualmente no Instituto Santa Fe, argumenta que a IA está presa em um ciclo de fluxo e refluxo em grande parte porque ainda não entendemos verdadeiramente a natureza e a complexidade da inteligência humana. Mitchell divide esse ponto abrangente em quatro equívocos comuns em torno da IA ​​e discute o que eles significam para o futuro do campo.

1. O progresso na inteligência estreita é o progresso em direção à inteligência geral

Novas conquistas impressionantes da IA ​​geralmente são acompanhadas por uma suposição de que essas mesmas conquistas estão nos aproximando de alcançar inteligência de máquina em nível humano. Mas não apenas, como Mitchell aponta, a inteligência estreita e geral é tão diferente quanto subir em uma árvore versus pousar na lua, mas mesmo a inteligência estreita ainda depende em grande parte de uma abundância de dados específicos de tarefas e treinamento facilitado por humanos.

Pegue o GPT-3, que alguns citado como tendo superou “estreito” inteligência: o algoritmo foi treinado para escrever texto, mas aprendeu a traduzir, escrever código, autocompletar imagens, fazer contas, entre outras tarefas. Mas, embora as capacidades do GPT-3 tenham se mostrado mais extensas do que seus criadores podem ter pretendido, todas as suas habilidades ainda estão dentro do domínio em que foi treinado: isto é, linguagem falada, escrita e programação.

Tornar-se adepto de uma habilidade não relacionada ao idioma sem treinamento sinalizaria inteligência geral, mas esse não foi o caso do GPT-3, nem foi o caso de qualquer outra IA recentemente desenvolvida: eles permanecem estreitos em natureza e , embora significativos em si mesmos, não devem ser confundidos com passos em direção à compreensão completa do mundo necessária para a inteligência geral.

2. O que é fácil para humanos deve ser fácil para máquinas

Is IA mais inteligente do que uma criança de quatro anos? Na maioria dos sentidos, a resposta é não, e isso porque habilidades e tarefas que percebemos como “fáceis” são, na verdade, muito mais complexas do que acreditamos.s Paradoxo de Moravec notas.

Crianças de quatro anos são muito boas em descobrir relações de causa e efeito com base em suas interações com o mundo ao seu redor. Se, por exemplo, tocarem uma panela no fogão e queimarem um dedo, entenderão que a queimadura foi causada pela panela estar quente, não por ser redonda ou prateada. Para os humanos, isso é senso comum básico, mas os algoritmos têm dificuldade em fazer inferências causais, especialmente sem um grande conjunto de dados ou em um contexto diferente daquele em que foram treinados.

As percepções e escolhas que ocorrem em um nível subconsciente em humanos se baseiam em uma vida inteira de experiência e aprendizado, mesmo em um nível tão elementar como “tocar em coisas quentes vai te queimar”. Porque chegamos a um ponto em que esse tipo de conhecimento é reflexivo, nem mesmo requer pensamento consciente, nós o vemos como “fácil”, mas é exatamente o contrário. “IA é mais difícil do que pensamos”, escreve Mitchell, “porque estamos amplamente inconscientes da complexidade de nossos próprios processos de pensamento”.

3. A linguagem humana pode descrever a inteligência da máquina

Os humanos têm uma tendência a antropomorfizar coisas não humanas, de animais a objetos inanimados a robôs e computadores. Ao fazer isso, usamos as mesmas palavras que usaríamos para discutir as atividades humanas ou a inteligência – exceto que essas palavras não se encaixam no contexto e, de fato, podem confundir nossa própria compreensão da IA. Mitchell usa o termo “mnemônicos desejosos”, cunhado por um cientista da computação na década de 1970. Palavras como “ler”, “entender” e “pensar” são usadas para descrever e avaliar a IA, mas essas palavras não nos dão uma descrição precisa de como a IA está funcionando ou progredindo.

Mesmo “aprender” é um termo impróprio, diz Mitchell, porque se uma máquina realmente “aprendesse” uma nova habilidade, ela seria capaz de aplicá-la em diferentes configurações; encontrar correlações em conjuntos de dados e usar os padrões identificados para fazer previsões ou atender a outros benchmarks é algo, mas não é “aprender” da maneira que os humanos aprendem.

Então, por que todo o alarido sobre as palavras, se elas são tudo o que temos e estão transmitindo a essência? Bem, diz Mitchell, essa linguagem imprecisa pode não apenas enganar o público e a mídia, mas também influenciar a maneira como os pesquisadores de IA pensam sobre seus sistemas e realizam seu trabalho.

4. A inteligência está em nossas cabeças

O ponto final de Mitchell é que a inteligência humana não está contida apenas no cérebro, mas requer um corpo físico.

Isso parece autoexplicativo; usamos nossos sentidos para absorver e processar informações, e interagimos e nos movemos pelo mundo em nossos corpos. No entanto, a ênfase predominante na pesquisa de IA é no cérebro: compreendê-lo, replicar vários aspectos de sua forma ou funçãoe fazendo AI mais gosta.

Se a inteligência vivesse apenas no cérebro, poderíamos chegar mais perto de alcançar a IA de nível humano, digamos, construindo uma rede neural com o mesmo número de parâmetros que o cérebro tem conexões sinápticas, duplicando assim a “capacidade de computação” do cérebro. .”

Traçar esse tipo de paralelo pode ser aplicado nos casos em que “inteligência” se refere a operar por um conjunto de regras para trabalhar em direção a um objetivo definido – como ganhar um jogo de xadrez ou modelar a forma como as proteínas se dobram, ambos os quais os computadores já podem fazer bastante. Nós vamos. Mas outros tipos de inteligência são muito mais moldados e sujeitos a emoções, preconceitos e experiências individuais.

Voltando ao exemplo do GPT-3: o algoritmo produz inteligência “subjetiva” (sua própria escrita) usando um conjunto de regras e parâmetros criados com um enorme conjunto de dados de inteligência subjetiva pré-existente (escrita por humanos). O GPT-3 é aclamado como “criativo”, mas sua escrita depende de associações feitas entre palavras e frases na escrita humana – que é repleta de preconceitos, emoção, conhecimento pré-existente, bom senso e a experiência única do escritor no mundo. mundo, tudo experimentado através do corpo.

Mitchell argumenta que os aspectos não racionais e subjetivos da maneira como os humanos pensam e operam sãonão um obstáculo à nossa inteligência, mas são de facto seu alicerce e facilitador. O principal especialista em inteligência geral artificial, Ben Goertzel, também defende a “arquitetura de todo o organismo”. escrituraing, “Os seres humanos são tanto corpos quanto mentes e, portanto, alcançar a AGI semelhante à humana exigirá a incorporação de sistemas de IA em sistemas físicos capazes de interagir com o mundo humano cotidiano de maneiras diferenciadas”.

De onde a partir daqui?

Esses equívocos deixam poucas dúvidas sobre o que pesquisadores e desenvolvedores de IA não deveria Faz. O que é menos claro é como seguir em frente. Devemos começar, diz Mitchell, com uma melhor compreensão da inteligência – não é uma tarefa pequena ou simples. Um bom lugar que os pesquisadores de IA podem procurar, no entanto, é em outras disciplinas da ciência que estudam a inteligência.

Por que estamos tão empenhados em criar uma versão artificial da inteligência humana, afinal? Ele evoluiu ao longo de milhões de anos e é extremamente complexo e intrincado, mas ainda repleto de suas próprias deficiências. Talvez a resposta seja que não estamos tentando construir um cérebro artificial que seja tão bom quanto nosso; estamos tentando construir um que seja melhor, e isso nos ajudará a resolver problemas atualmente insolúveis.

Evolução humana ocorreu ao longo de cerca de seis milhões de anos. Enquanto isso, é 65 anos desde que a IA se tornou um campo de estudomorrer, e está escrevendo texto humano, tornando rostos falsos, segurando seu próprio em debates, fazer diagnósticos médicos, e mais. Embora muito a aprender, parece que a IA está progredindo bastante bem no grande esquema das coisas-e o próximo passo para ir além é aprofundar nossa compreensão de nossas próprias mentes.

Crédito de imagem: René Böhmer on Unsplash

Fonte: https://singularityhub.com/2021/05/06/to-advance-ai-we-need-to-better-understand-human-intelligence-and-address-these-4-fallacies/

Carimbo de hora:

Mais de Singularity Hub