Matematik vstopi v lokal (dezinformacije)

Izvorno vozlišče: 1865101

Dezinformacije, dezinformacije, infotainment, algowars - če so razprave o prihodnosti medijev v zadnjih nekaj desetletjih kaj pomenile, so vsaj pustile oster pečat v angleškem jeziku. Bilo je veliko žalitev in strahu glede tega, kaj nam družbeni mediji počnejo, od naših individualnih psihologij in nevrologij do širših skrbi glede moči demokratičnih družb. Kot je nedavno rekel Joseph Bernstein, je bil premik od »modrosti množic« k »dezinformacijam« res nenaden.

Kaj so dezinformacije? Ali obstaja in če obstaja, kje je in kako vemo, da jo gledamo? Ali bi nas moralo skrbeti, kaj nam kažejo algoritmi naših priljubljenih platform, ko si prizadevajo iztisniti delček naše pozornosti? To so samo tiste vrste zapletena matematična in družboslovna vprašanja Noah Giansiracusa zanima predmet.

Giansiracusa, profesor na Univerzi Bentley v Bostonu, se izobražuje v matematiki (svoje raziskave osredotoča na področja, kot je algebrska geometrija), vendar je bil tudi nagnjen k gledanju družbenih tem skozi matematično lečo, kot je povezovanje računalniško geometrijo na vrhovno sodišče. Pred kratkim je izdal knjigo z naslovom "Kako algoritmi ustvarjajo in preprečujejo lažne novice«, da bi raziskali nekatera zahtevna vprašanja o današnji medijski krajini in kako tehnologija poslabšuje in izboljšuje te trende.

Nedavno sem gostil Giansiracuso na Twitter Spaceu in ker Twitter ni olajšal kasnejšega poslušanja teh pogovorov (minljivost!), sem se odločil, da bom za vas in zanamce izvlekel najzanimivejše dele našega pogovora.

Ta intervju je bil zaradi jasnosti urejen in zgoščen.

Danny Crichton: Kako ste se odločili raziskovati lažne novice in napisati to knjigo?

Noah Giansiracusa: Ena stvar, ki sem jo opazil, je, da obstaja veliko res zanimivih socioloških in politoloških razprav o lažnih novicah in podobnih stvareh. In potem na tehnični strani boste imeli stvari, kot je Mark Zuckerberg, ki pravi, da bo umetna inteligenca odpravila vse te težave. Samo zdelo se je, da je to vrzel nekoliko težko premostiti.

Vsi so verjetno slišali ta nedavni Bidnov citat, ki pravi: "ubijajo ljudi,« v zvezi z dezinformacijami na družbenih medijih. Torej imamo politike, ki govorijo o teh stvareh, pri čemer jim je težko zares dojeti algoritemsko plat. Potem imamo računalničarje, ki so resnično poglobljeni v podrobnosti. Tako da sem nekako vmes, nisem pravi zagrizen človek za računalništvo. Zato mislim, da mi je nekoliko lažje, če se preprosto umaknem in dobim pogled iz ptičje perspektive.

Na koncu dneva se mi je zdelo, da želim raziskati več interakcij z družbo, kjer stvari postanejo neurejene, kjer matematika ni tako čista.

Crichton: Ker prihajate iz matematičnega ozadja, vstopate na to sporno področje, kjer je veliko ljudi pisalo z veliko različnih zornih kotov. Kaj ljudje dobijo prav na tem področju in kaj so ljudje morda spregledali kakšno nianso?

Giansiracusa: Veliko je neverjetnega novinarstva; Presenečen sem bil nad tem, kako se je veliko novinarjev res lahko ukvarjalo s precej tehničnimi stvarmi. Rekel bi pa eno stvar, da se morda niso zmotili, ampak nekako me je presenetilo, da velikokrat izide akademski članek ali celo objava Googla ali Facebooka ali enega od teh tehnoloških podjetij in nekaj bodo omenili in novinar bo morda izluščil citat in ga poskušal opisati, vendar se zdi, da jih je malo strah, da bi to res poskušali pogledati in razumeti. In mislim, da ne gre za to, da ne bi mogli, res se zdi bolj kot ustrahovanje in strah.

Ena stvar, ki sem jo doživel kot učitelj matematike, je, da se ljudje tako bojijo, da bi rekli kaj narobe in naredili napako. In to velja za novinarje, ki morajo pisati o tehničnih stvareh, nočejo povedati česa narobe. Zato je lažje citirati samo sporočilo za javnost s Facebooka ali citirati strokovnjaka.

Ena stvar, ki je tako zabavna in lepa pri čisti matematiki, je, da vas v resnici ne skrbi, da bi se zmotili, preprosto poskusite ideje in vidite, kam vodijo, in vidite vse te interakcije. Ko ste pripravljeni napisati prispevek ali imeti govor, preverite podrobnosti. Toda večina matematike je ta ustvarjalni proces, v katerem raziskujete in samo vidite, kako ideje medsebojno delujejo. Menite, da bi se zaradi mojega izobraževanja matematika bal, da bi delal napake in bil zelo natančen, vendar je imelo nekako nasprotni učinek.

Drugič, veliko teh algoritemskih stvari ni tako zapletenih, kot se zdi. Ne sedim tam in jih izvajam, prepričan sem, da jih je težko programirati. Ampak samo velika slika, vsi ti algoritmi danes, veliko teh stvari temelji na globokem učenju. Torej imate neko nevronsko mrežo, zame kot tujca mi kot tujcu ni pomembno, kakšno arhitekturo uporabljajo, pomembno je le, kakšni so napovedovalci? V bistvu, katere so spremenljivke, s katerimi napajate ta algoritem strojnega učenja? In kaj poskuša izpisati? To so stvari, ki jih lahko razume vsak.

Crichton: Mislim, da je eden od velikih izzivov pri analizi teh algoritmov pomanjkanje preglednosti. Za razliko od, na primer, sveta čiste matematike, ki je skupnost učenjakov, ki se ukvarjajo z reševanjem problemov, so lahko mnoga od teh podjetij dejansko precej nasprotujoča pri zagotavljanju podatkov in analiz širši skupnosti.

Giansiracusa: Zdi se, da obstaja meja tega, kar lahko kdo sklepa samo na podlagi tega, da je od zunaj.

Dober primer je torej YouTube – ekipe akademikov so želele raziskati, ali algoritem za priporočila YouTube pošilja ljudi v te teorije zarote zajčje luknje ekstremizma. Izziv je v tem, da ker je to algoritem priporočil, uporablja globoko učenje, temelji na stotinah in stotinah napovednikov, ki temeljijo na vaši zgodovini iskanja, vaši demografiji, drugih videoposnetkih, ki ste jih gledali in kako dolgo – vse te stvari. Tako je prilagojen vam in vašim izkušnjam, da vse študije, ki sem jih našel, uporabljajo način brez beleženja zgodovine.

Torej so v bistvu uporabniki, ki nimajo zgodovine iskanja, nobenih informacij in bodo šli na videoposnetek in nato kliknili prvi priporočeni videoposnetek in nato naslednjega. In poglejmo, kam algoritem pripelje ljudi. To je tako drugačna izkušnja kot dejanski človeški uporabnik z zgodovino. In to je bilo res težko. Mislim, da še nihče ni našel dobrega načina za algoritemsko raziskovanje YouTubovega algoritma od zunaj.

Iskreno povedano, edini način, na katerega mislim, da bi lahko to naredil, je kot nekakšna študija stare šole, kjer zaposliš cel kup prostovoljcev in nekako namestiš sledilnik na njihov računalnik in rečeš: "Hej, samo živi življenje, kot običajno opravite s svojo zgodovino in vsem ter nam povejte videoposnetke, ki jih gledate.« Zato je bilo težko mimo tega dejstva, da veliko teh algoritmov, skoraj vsi, bi rekel, tako močno temeljijo na vaših individualnih podatkih. Tega ne znamo preučevati v celoti.

In ne samo jaz ali kdo drug zunaj, ki ima težave, ker nimamo podatkov. Celo ljudje v teh podjetjih so zgradili algoritem in vedo, kako algoritem deluje na papirju, vendar ne vedo, kako se bo dejansko obnašal. To je kot Frankensteinova pošast: to stvar so zgradili, a ne vedo, kako bo delovala. Zato menim, da je edini način, da ga lahko resnično preučite, če se ljudje v notranjosti s temi podatki potrudijo in porabijo čas in vire za preučevanje.

Crichton: Obstaja veliko meritev, ki se uporabljajo za ocenjevanje dezinformacij in določanje angažiranosti na platformi. Glede na vaše matematično ozadje menite, da so te mere zanesljive?

Giansiracusa: Ljudje poskušajo razkriti napačne informacije. Toda v procesu ga lahko komentirajo, ga ponovno objavijo ali delijo in to šteje kot sodelovanje. Torej veliko teh meritev angažiranosti, ali res gledajo na pozitivno ali samo na celotno angažiranost? Veste, nekako se vse pomeša.

To se dogaja tudi v akademskih raziskavah. Citiranost je univerzalna metrika uspešnosti raziskave. No, res lažne stvari, kot je Wakefieldov izvirni dokument o avtizmu in cepivih, so dobile na tone citatov, veliko jih je bilo ljudi, ki so to citirali, ker so mislili, da je prav, a veliko je bilo znanstvenikov, ki so to razkrili, citirali so jih v svojem dokumentu recimo, dokažemo, da je ta teorija napačna. Ampak citat je nekako citat. Vse se torej šteje k meritvi uspeha.

Zato mislim, da se to delno dogaja z zavzetostjo. Če v svojih komentarjih objavim nekaj z besedami: "Hej, to je noro," kako algoritem ve, ali to podpiram ali ne? Za poskus bi lahko uporabili jezikovno obdelavo z umetno inteligenco, vendar nisem prepričan, ali so, in to zahteva veliko truda.

Crichton: Na koncu bi rad nekaj spregovoril o GPT-3 in skrbi glede sintetičnih medijev in lažnih novic. Obstaja veliko strahu, da bodo roboti z umetno inteligenco preplavili medije z dezinformacijami – kako prestrašeni ali ne bi morali biti prestrašeni?

Giansiracusa: Ker je moja knjiga res zrasla iz predavanja iz izkušenj, sem želel ostati nepristranski in samo nekako informirati ljudi ter jim pustiti, da se sami odločijo. Odločil sem se, da bom poskusil presekati to razpravo in res pustiti obema stranema, da spregovorita. Mislim, da algoritmi vira novic in algoritmi za prepoznavanje povečajo veliko škodljivih stvari, kar je za družbo uničujoče. Obstaja pa tudi veliko neverjetnega napredka pri produktivni in uspešni uporabi algoritmov za omejevanje lažnih novic.

Obstajajo ti tehno-utopisti, ki pravijo, da bo umetna inteligenca vse popravila, imeli bomo pripovedovanje resnice in preverjanje dejstev ter algoritme, ki lahko odkrijejo napačne informacije in jih odstranijo. Nekaj ​​napredka je, vendar se to ne bo zgodilo in nikoli ne bo popolnoma uspešno. Vedno se bo treba zanašati na ljudi. Toda druga stvar, ki jo imamo, je nekakšen iracionalen strah. Obstaja nekakšna hiperbolična distopija umetne inteligence, kjer so algoritmi tako močni, kot nekakšna singularnost, da nas bodo uničili.

Ko so se globoki ponaredki leta 2018 prvič pojavili v novicah in je bil GPT-3 izdan pred nekaj leti, je bilo veliko strahu, da: »Oh sranje, to nam bo povzročilo vse težave z lažnimi novicami in razumevanjem, kaj je res svet veliko, veliko težji.” In mislim, da zdaj, ko imamo nekaj let oddaljenosti, lahko vidimo, da so to malo otežili, vendar niti približno tako močno, kot smo pričakovali. In glavno vprašanje je nekako bolj psihološko in ekonomsko kot kar koli drugega.

Prvotni avtorji GPT-3 imajo torej raziskovalno nalogo, ki predstavlja algoritem, in ena od stvari, ki so jo naredili, je bil test, v katerega so prilepili nekaj besedila in ga razširili v članek, nato pa so imeli nekaj prostovoljcev, da ocenijo in ugibajo, kateri je algoritemsko ustvarjen in kateri članek je ustvarjen človek. Poročali so, da so se zelo, zelo približali 50-odstotni natančnosti, kar pomeni komaj kaj več od naključnih ugibanj. Torej to zveni, veste, hkrati neverjetno in strašljivo.

Toda če pogledate podrobnosti, so se raztezale kot enovrstični naslov do odstavka besedila. Če ste poskušali narediti celoten članek, v dolžini The Atlantic ali v New Yorkerju, boste začeli opažati neskladja, misel bo vijugala. Avtorji tega prispevka tega niso omenili, le izvedli so svoj eksperiment in rekli: "Hej, poglej, kako uspešen je."

Torej je videti prepričljivo, lahko naredijo te impresivne članke. Ampak tukaj je glavni razlog, na koncu dneva, zakaj GPT-3 ni bil tako transformativen, kar zadeva lažne novice in napačne informacije in vse te stvari. To je zato, ker so lažne novice večinoma smeti. Je slabo napisan, nizke kakovosti, tako poceni in hiter za pripravo, da bi lahko plačali svojemu 16-letnemu nečaku, da v nekaj minutah pripravi kup lažnih novic.

Ne gre toliko za to, da mi je matematika pomagala to videti. Nekako je tako, da je glavna stvar, ki jo poskušamo narediti pri matematiki, ta, da smo skeptični. Zato morate o teh stvareh dvomiti in biti malo skeptični.

Vir: https://techcrunch.com/2021/08/20/a-mathematician-walks-into-a-bar-of-disinformation/

Časovni žig:

Več od Techcrunch