AI er sværere end vi tror: 4 nøglefejl i AI-forskning

Kildeknude: 841691

Kunstig intelligens har været overalt i overskrifter i næsten et årti, da systemer har gjort hurtige fremskridt i mange år AI udfordringer som billedgenkendelse, naturlig sprogbehandling og spil. Teknologivirksomheder har sået maskinlæringsalgoritmer ind i søge- og anbefalingsmaskiner og ansigtsgenkendelsessystemer, og OpenAI's GPT-3 og DeepMind's AlphaFold lover endnu flere praktiske anvendelser, fra skrivning til kodning til videnskabelige opdagelser.

Faktisk er vi midt i et AI-forår, med investeringer i teknologien i vækst og en altoverskyggende følelse af optimisme og mulighed for, hvad den kan udrette og hvornår.

Denne tid kan føles anderledes end tidligere AI-fjedre på grund af de førnævnte praktiske applikationer og udbredelsen af ​​smal AI til teknologier, som mange af os bruger hver dag - som vores smartphones, tv'er, biler og støvsugere, for blot at nævne nogle få. Men det er også muligt, at vi rider på en bølge af kortsigtede fremskridt inden for kunstig intelligens, som snart vil blive en del af den ebbe og flod i fremskridt, finansiering og følelser, som har karakteriseret feltet siden grundlæggelsen i 1956.

AI er kommet til kort i forhold til mange forudsigelser i løbet af de sidste par årtier; 2020 var for eksempel indvarslet af mange som året selvkørende biler ville begynde at fylde veje op og uden problemer fragte passagerer rundt, mens de sad tilbage og nød turen. Men problemet har været sværere end forventet, og i stedet for horder af robottaxaer forbliver de mest avancerede projekter i forsøg. I mellemtiden mener nogle i feltet, at den dominerende form for AI - en slags maskinlæring baseret på neurale netværk - snart kan løbe tør for damp uden en række afgørende gennembrud.

I et papir med titlen Hvorfor AI er sværere end vi tror, udgivet i sidste uge på arXiv preprint-serveren, Melanie Mitchell, en professor i datalogi ved Portland State University i øjeblikket ved Santa Fe Institut, hævder, at AI sidder fast i en ebbe-og-flod-cyklus, hovedsagelig fordi vi endnu ikke rigtig forstår naturen og kompleksiteten af ​​menneskelig intelligens. Mitchell bryder dette overordnede punkt ned i fire almindelige misforståelser omkring AI og diskuterer, hvad de betyder for feltets fremtid.

1. Fremskridt i snæver intelligens er fremskridt hen imod generel intelligens

Imponerende nye præstationer fra AI er ofte ledsaget af en antagelse om, at de samme præstationer bringer os tættere på at nå maskinintelligens på menneskeligt niveau. Men ikke kun, som Mitchell påpeger, er snæver og generel intelligens lige så forskellige som at klatre i et træ kontra landing på månen, men selv smal intelligens er stadig i høj grad afhængig af en overflod af opgavespecifikke data og menneskelig faciliteret træning.

Tag GPT-3, som nogle citeret som at have overgået "smal" intelligens: Algoritmen blev trænet til at skrive tekst, men lærte blandt andet at oversætte, skrive kode, autofuldføre billeder og lave matematik. Men selvom GPT-3's muligheder viste sig at være mere omfattende, end dens skabere måske havde tænkt sig, er alle dens færdigheder stadig inden for det domæne, hvor den blev trænet: det vil sige sprog - talt, skrevet og programmering.

At blive dygtig til en ikke-sprog-relateret færdighed uden træning ville signalere generel intelligens, men dette var ikke tilfældet med GPT-3, og det har heller ikke været tilfældet med nogen anden nyligt udviklet AI: de forbliver smalle i naturen og Selvom det er vigtigt i sig selv, bør det ikke sammenblandes med skridt mod den grundige forståelse af verden, der kræves for generel intelligens.

2. Det, der er nemt for mennesker, bør være nemt for maskiner

Is AI smartere end en fire-årig? I de fleste forstand er svaret nej, og det skyldes, at færdigheder og opgaver, som vi opfatter som værende "lette", faktisk er meget mere komplekse, end vi giver dem æren for, ens Moravecs paradoks Bemærks.

Fireårige er ret gode til at finde ud af årsags- og virkningsforhold baseret på deres interaktion med verden omkring dem. Hvis de for eksempel rører ved en gryde på komfuret og brænder en finger, vil de forstå, at forbrændingen skyldes, at gryden er varm, ikke af at den er rund eller sølvfarvet. For mennesker er dette grundlæggende sund fornuft, men algoritmer har svært ved at drage kausale slutninger, især uden et stort datasæt eller i en anden kontekst end den, de blev trænet i.

De opfattelser og valg, der finder sted på et underbevidst niveau hos mennesker, er baseret på en livslang erfaring og læring, selv på et så elementært niveau som "at røre ved varme ting vil brænde dig." Fordi vi når et punkt, hvor denne form for viden er refleksiv og ikke engang kræver bevidst tankegang, ser vi det som "let", men det er stik modsat. "AI er sværere, end vi tror," skriver Mitchell, "fordi vi stort set er ubevidste om kompleksiteten af ​​vores egne tankeprocesser."

3. Menneskeligt sprog kan beskrive maskinintelligens

Mennesker har en tendens til at antropomorfe ikke-menneskelige ting, fra dyr til livløse genstande til robotter og computere. Når vi gør det, bruger vi de samme ord, som vi ville bruge til at diskutere menneskelige aktiviteter eller intelligens – bortset fra at disse ord ikke helt passer ind i konteksten og faktisk kan forvirre vores egen forståelse af AI. Mitchell bruger udtrykket "ønske-mnemonics", opfundet af en datalog i 1970'erne. Ord som "læse", "forstå" og "tænke" bruges til at beskrive og evaluere AI, men disse ord giver os ikke en nøjagtig skildring af, hvordan AI'en fungerer eller skrider frem.

Selv "lære" er en forkert betegnelse, siger Mitchell, for hvis en maskine virkelig "lærte" en ny færdighed, ville den være i stand til at anvende denne færdighed i forskellige indstillinger; at finde sammenhænge i datasæt og bruge de identificerede mønstre til at lave forudsigelser eller opfylde andre benchmarks er noget, men det er ikke "læring" på den måde, som mennesker lærer.

Så hvorfor al den ballade over ord, hvis de er alt, hvad vi har, og de får essensen igennem? Nå, siger Mitchell, dette unøjagtige sprog kan ikke kun vildlede offentligheden og medierne, men det kan påvirke den måde, AI-forskere tænker om deres systemer og udfører deres arbejde.

4. Intelligens er alt sammen i vores hoveder

Mitchells sidste pointe er, at menneskelig intelligens ikke kun er indeholdt i hjernen, men kræver en fysisk krop.

Dette virker selvforklarende; vi bruger vores sanser til at absorbere og bearbejde information, og vi interagerer med og bevæger os gennem verden i vores kroppe. Alligevel er den fremherskende vægt i AI-forskning på hjernen: forstå det, replikere forskellige aspekter af det form eller funktion, og laver AI kan lide det mere.

Hvis intelligens kun boede i hjernen, ville vi være i stand til at rykke tættere på at nå AI på menneskeligt niveau ved for eksempel at bygge et neuralt netværk med det samme antal parametre, som hjernen har synaptiske forbindelser, og derved duplikere hjernens "computerkapacitet ."

At drage denne form for parallel kan være gældende i tilfælde, hvor "intelligens" refererer til at arbejde efter et sæt regler for at arbejde hen imod et defineret mål - såsom at vinde et spil skak eller modellere den måde, proteiner folder, hvilket begge computere allerede kan klare. godt. Men andre typer intelligens er langt mere formet af og underlagt følelser, bias og individuel erfaring.

Går vi tilbage til GPT-3-eksemplet: Algoritmen producerer "subjektiv" intelligens (sin egen skrivning) ved hjælp af et sæt regler og parametre, den har skabt med et enormt datasæt af allerede eksisterende subjektiv intelligens (skrivning af mennesker). GPT-3 hyldes som værende "kreativ", men dens skrivning er afhængig af associationer, den trak mellem ord og sætninger i menneskelig skrivning - som er fyldt med skævheder, følelser, allerede eksisterende viden, sund fornuft og forfatterens unikke oplevelse af verden, alt sammen oplevet gennem kroppen.

Mitchell argumenterer at de ikke-rationelle, subjektive aspekter af den måde mennesker tænker og opererer på erikke en hindring for vores intelligens, men er faktisk dens grundfjeld og muliggører. Den førende ekspert i kunstig generel intelligens, Ben Goertzel, går ligeledes ind for "hele organismearkitektur". stævningING, "Mennesker er lige så meget kroppe som sind, og så at opnå menneskelignende AGI vil kræve indlejring af AI-systemer i fysiske systemer, der er i stand til at interagere med den daglige menneskelige verden på nuancerede måder."

Hvor er der fra her?

Disse misforståelser efterlader ingen tvivl om, hvad AI-forskere og -udviklere bør ikke gør. Hvad der er mindre klart er, hvordan man kommer videre. Vi må starte, siger Mitchell, med en bedre forståelse af intelligens – ingen lille eller ligetil opgave. Et godt sted AI-forskere kan se, er dog i andre videnskabsdiscipliner, der studerer intelligens.

Hvorfor er vi så opsatte på at skabe en kunstig version af menneskelig intelligens? Det har udviklet sig over millioner af år og er enormt komplekst og indviklet, men stadig fyldt med sine egne mangler. Måske er svaret, at vi ikke forsøger at bygge en kunstig hjerne, altså så godt som vores; vi forsøger at bygge en, der er bedre, og som vil hjælpe os med at løse aktuelt uløselige problemer.

Menneskelig evolution fandt sted i løbet af omkring seks millioner år. I mellemtiden er det det er 65 år siden AI blev et studiumD y, og det er at skrive menneskelignende tekst, lave falske ansigter, holder sig selv i debatter, stille medicinske diagnoser, , mere. Selvom findes der meget tilbage at lære, det ser ud til, at AI udvikler sig smuk godt i den store sammenhængog det næste skridt i at tage det videre er at uddybe vores forståelse af vores eget sind.

Billede Credit: Rene Böhmer on Unsplash

Kilde: https://singularityhub.com/2021/05/06/to-advance-ai-we-need-to-better-understand-human-intelligence-and-address-these-4-fallacies/

Tidsstempel:

Mere fra Singularitet Hub