Um matemático entra em um bar (de desinformação)

Nó Fonte: 1865101

Desinformação, desinformação, infotainment, algowars – se os debates sobre o futuro dos meios de comunicação social nas últimas décadas significaram alguma coisa, pelo menos deixaram uma marca pungente na língua inglesa. Tem havido muita injúria e medo sobre o que as redes sociais nos estão a fazer, desde as nossas psicologias e neurologias individuais até preocupações mais amplas sobre a força das sociedades democráticas. Como Joseph Bernstein disse recentemente, a mudança da “sabedoria das multidões” para a “desinformação” foi de facto abrupta.

O que é desinformação? Existe e, em caso afirmativo, onde está e como sabemos que estamos olhando para ele? Deveríamos nos preocupar com o que os algoritmos de nossas plataformas favoritas nos mostram enquanto se esforçam para atrair nossa atenção? São apenas esses tipos de questões intrincadas de matemática e ciências sociais que surgiram Noah Giansiracusa interessado no assunto.

Giansiracusa, professor da Universidade Bentley em Boston, é formado em matemática (focando sua pesquisa em áreas como geometria algébrica), mas também tem uma tendência a olhar para tópicos sociais através de lentes matemáticas, como conectar geometria computacional para o Supremo Tribunal Federal. Mais recentemente, ele publicou um livro chamado “Como os algoritmos criam e previnem notícias falsas” para explorar algumas das questões desafiadoras em torno do cenário da mídia atual e como a tecnologia está exacerbando e melhorando essas tendências.

Hospedei Giansiracusa em um espaço do Twitter recentemente, e como o Twitter não tornou fácil ouvir essas palestras depois (efemeridade!), resolvi trazer os trechos mais interessantes de nossa conversa para você e para a posteridade.

Esta entrevista foi editada e condensada para maior clareza.

Danny Crichton: Como você decidiu pesquisar notícias falsas e escrever este livro?

Noah Giansiracusa: Uma coisa que notei é que há muitas discussões sociológicas e científicas realmente interessantes sobre notícias falsas e esse tipo de coisa. E então, no lado técnico, você terá coisas como Mark Zuckerberg dizendo que a IA resolverá todos esses problemas. Parecia que é um pouco difícil preencher essa lacuna.

Provavelmente todo mundo já ouviu esta citação recente de Biden dizendo: “eles estão matando pessoas”, em relação à desinformação nas redes sociais. Portanto, temos políticos falando sobre essas coisas em que é difícil para eles realmente compreenderem o lado algorítmico. Depois, temos o pessoal da ciência da computação que se aprofunda nos detalhes. Então, estou meio que sentado no meio, não sou uma pessoa realmente hardcore em ciência da computação. Então acho que é um pouco mais fácil para mim simplesmente dar um passo atrás e ter uma visão panorâmica.

No final do dia, senti que queria explorar mais algumas interações com a sociedade onde as coisas ficam complicadas, onde a matemática não é tão clara.

Crichton: Vindo de uma formação matemática, você está entrando nesta área controversa onde muitas pessoas escreveram de vários ângulos diferentes. O que as pessoas estão acertando nesta área e o que talvez tenham perdido algumas nuances?

Giansiracusa: Há muito jornalismo incrível; Fiquei impressionado com a forma como muitos jornalistas eram realmente capazes de lidar com assuntos bastante técnicos. Mas eu diria uma coisa que talvez eles não tenham entendido errado, mas que me impressionou: muitas vezes é publicado um artigo acadêmico, ou até mesmo um anúncio do Google ou do Facebook ou de uma dessas empresas de tecnologia, e eles meio que mencionam algo, e o jornalista talvez extraia uma citação e tente descrevê-la, mas eles parecem um pouco receosos de realmente tentar olhar e entender. E eu não acho que eles não tenham conseguido, realmente parece mais uma intimidação e um medo.

Uma coisa que experimentei muito como professor de matemática é que as pessoas têm muito medo de dizer algo errado e cometer um erro. E isso vale para jornalistas que têm que escrever sobre coisas técnicas, eles não querem falar nada errado. Portanto, é mais fácil simplesmente citar um comunicado de imprensa do Facebook ou citar um especialista.

Uma coisa que é tão divertida e bonita na matemática pura é que você realmente não se preocupa em estar errado, apenas experimenta ideias e vê aonde elas levam e você vê todas essas interações. Quando estiver pronto para escrever um artigo ou dar uma palestra, verifique os detalhes. Mas a maior parte da matemática é esse processo criativo que você explora e apenas vê como as ideias interagem. Minha formação como matemático você acha que me deixaria apreensivo em relação a cometer erros e, para ser muito preciso, mas teve o efeito oposto.

Em segundo lugar, muitas dessas coisas algorítmicas não são tão complicadas quanto parecem. Não estou sentado aí implementando-os, tenho certeza de que programá-los é difícil. Mas no geral, todos esses algoritmos hoje em dia, muitas dessas coisas são baseadas em aprendizado profundo. Então você tem alguma rede neural, realmente não importa para mim, como alguém de fora, qual arquitetura eles estão usando, tudo o que realmente importa é: quais são os preditores? Basicamente, quais são as variáveis ​​que você alimenta esse algoritmo de aprendizado de máquina? E o que ele está tentando produzir? São coisas que qualquer um pode entender.

Crichton: Um dos grandes desafios que considero ao analisar esses algoritmos é a falta de transparência. Ao contrário, digamos, do mundo da matemática pura, que é uma comunidade de académicos que trabalham para resolver problemas, muitas destas empresas podem, na verdade, ser bastante antagónicas no fornecimento de dados e análises à comunidade em geral.

Giansiracusa: Parece que há um limite para o que qualquer um pode deduzir apenas por ser de fora.

Portanto, um bom exemplo é o do YouTube – equipes de acadêmicos queriam explorar se o algoritmo de recomendação do YouTube envia as pessoas para essas tocas de extremismo da teoria da conspiração. O desafio é que, como este é o algoritmo de recomendação, ele usa aprendizagem profunda, é baseado em centenas e centenas de preditores baseados em seu histórico de pesquisa, seus dados demográficos, os outros vídeos que você assistiu e por quanto tempo – todas essas coisas. É tão personalizado para você e sua experiência que todos os estudos que consegui encontrar usam o modo de navegação anônima.

Então, eles são basicamente um usuário que não tem histórico de pesquisa, nenhuma informação e vai para um vídeo e clica no primeiro vídeo recomendado e depois no próximo. E vamos ver aonde o algoritmo leva as pessoas. Essa é uma experiência muito diferente de um usuário humano real com uma história. E isso tem sido muito difícil. Não acho que alguém tenha descoberto uma boa maneira de explorar algoritmicamente o algoritmo do YouTube de fora.

Honestamente, acho que a única maneira de fazer isso é como um estudo da velha escola, onde você recruta um monte de voluntários e coloca um rastreador em seus computadores e diz: “Ei, apenas viva a vida do jeito que você normalmente faz com seus históricos e tudo mais e conte-nos os vídeos que você está assistindo.” Portanto, tem sido difícil superar o fato de que muitos desses algoritmos, quase todos eles, eu diria, são fortemente baseados em seus dados individuais. Não sabemos como estudar isso de forma agregada.

E não sou só eu ou qualquer outra pessoa de fora que tem problemas porque não temos os dados. Até mesmo pessoas dentro dessas empresas construíram o algoritmo e sabem como o algoritmo funciona no papel, mas não sabem como ele realmente se comportará. É como o monstro de Frankenstein: eles construíram esta coisa, mas não sabem como vai funcionar. Então, acho que a única maneira de realmente estudá-los é se as pessoas que estão dentro desses dados se esforçarem e gastarem tempo e recursos para estudá-los.

Crichton: Existem muitas métricas usadas para avaliar a desinformação e determinar o envolvimento em uma plataforma. Vindo da sua formação matemática, você acha que essas medidas são robustas?

Giansiracusa: As pessoas tentam desmascarar a desinformação. Mas, no processo, eles podem comentar, retuitar ou compartilhar, e isso conta como engajamento. Então, muitas dessas medidas de engajamento estão realmente olhando para o engajamento positivo ou apenas para todo o engajamento? Você sabe, meio que tudo fica agrupado.

Isso também acontece na pesquisa acadêmica. As citações são a métrica universal do sucesso da pesquisa. Bem, coisas realmente falsas, como o artigo original sobre autismo e vacinas de Wakefield, receberam toneladas de citações, muitas delas eram pessoas citando-o porque achavam que estava certo, mas muitos eram cientistas que o estavam desmascarando, eles o citaram em seu artigo para digamos, demonstramos que esta teoria está errada. Mas de alguma forma uma citação é uma citação. Portanto, tudo conta para a métrica de sucesso.

Então eu acho que isso é um pouco do que está acontecendo com o engajamento. Se eu postar algo em meus comentários dizendo: “Ei, isso é loucura”, como o algoritmo sabe se estou apoiando isso ou não? Eles poderiam usar algum processamento de linguagem de IA para tentar, mas não tenho certeza se estão, e é muito esforço para fazer isso.

Crichton: Por fim, quero falar um pouco sobre o GPT-3 e a preocupação com a mídia sintética e as notícias falsas. Há muito medo de que os bots de IA sobrecarreguem a mídia com desinformação – quão assustados ou não devemos ficar?

Giansiracusa: Como meu livro realmente surgiu de uma aula de experiência, eu queria tentar permanecer imparcial e apenas informar as pessoas e deixá-las tomar suas próprias decisões. Decidi tentar interromper esse debate e realmente deixar ambos os lados falarem. Acho que os algoritmos de feed de notícias e de reconhecimento amplificam muitas coisas prejudiciais, e isso é devastador para a sociedade. Mas também há um progresso incrível no uso de algoritmos de forma produtiva e bem-sucedida para limitar notícias falsas.

Existem esses tecno-utópicos, que dizem que a IA vai consertar tudo, teremos a verdade, a verificação de fatos e algoritmos que podem detectar a desinformação e eliminá-la. Há algum progresso, mas isso não vai acontecer e nunca será totalmente bem-sucedido. Sempre precisará contar com humanos. Mas a outra coisa que temos é uma espécie de medo irracional. Existe esse tipo de distopia hiperbólica de IA em que os algoritmos são tão poderosos, como uma espécie de singularidade, que vão nos destruir.

Quando as deep fakes chegaram ao noticiário pela primeira vez em 2018, e o GPT-3 foi lançado há alguns anos, havia muito medo de que: “Oh merda, isso vai resolver todos os nossos problemas com notícias falsas e entender o que é verdade em o mundo muito, muito mais difícil.” E acho que agora que temos alguns anos de distância, podemos ver que eles tornaram tudo um pouco mais difícil, mas não tão significativamente quanto esperávamos. E a questão principal é mais psicológica e económica do que qualquer outra coisa.

Então, os autores originais do GPT-3 têm um artigo de pesquisa que apresenta o algoritmo, e uma das coisas que eles fizeram foi um teste onde colaram algum texto e o expandiram para um artigo, e então alguns voluntários avaliaram e adivinharam qual é o gerado por algoritmos e qual artigo é o gerado por humanos. Eles relataram que obtiveram uma precisão muito, muito próxima de 50%, o que significa um pouco acima das suposições aleatórias. Então isso parece, você sabe, incrível e assustador.

Mas se você olhar os detalhes, eles se estendem como um título de uma linha para um parágrafo de texto. Se você tentar fazer um artigo completo, do The Atlantic ou do New Yorker, você começará a ver as discrepâncias, o pensamento vai se desviar. Os autores deste artigo não mencionaram isso, eles apenas fizeram seu experimento e disseram: “Ei, veja como foi bem-sucedido”.

Parece convincente, eles podem fazer esses artigos impressionantes. Mas aqui está a principal razão, no final das contas, pela qual o GPT-3 não foi tão transformador no que diz respeito a notícias falsas e desinformação e todas essas coisas. É porque notícias falsas são principalmente lixo. Está mal escrito, é de baixa qualidade, é tão barato e rápido de publicar que você poderia simplesmente pagar ao seu sobrinho de 16 anos para publicar um monte de artigos de notícias falsas em minutos.

Não é tanto que a matemática me tenha ajudado a ver isso. Acontece que, de alguma forma, a principal coisa que tentamos fazer em matemática é sermos céticos. Então você tem que questionar essas coisas e ser um pouco cético.

Fonte: https://techcrunch.com/2021/08/20/a-mathematician-walks-into-a-bar-of-disinformation/

Carimbo de hora:

Mais de Techcrunch