AI kan vara till synes överallt, men det finns fortfarande massor av saker den inte kan göra - för nu

AI kan vara till synes överallt, men det finns fortfarande massor av saker den inte kan göra - för nu

Källnod: 1894618

Nuförtiden behöver vi inte vänta länge tills nästa genombrott in artificiell intelligens imponerar på alla med förmågor som tidigare bara hörde till science fiction.

2022, AI konstgenereringsverktyg som Open AI:s DALL-E 2, Googles Imagen och Stable Diffusion tog internet med storm, med användare som genererade högkvalitativa bilder från textbeskrivningar.

Till skillnad från tidigare utvecklingar hittade dessa text-till-bild-verktyg snabbt sin väg från forskningslabb till mainstream kultur, vilket leder till virala fenomen som "Magic Avatar"-funktionen i Lensa AI-appen, som skapar stiliserade bilder av sina användare.

I december chockade en chatbot som heter ChatGPT användarna med sin skrivkunskaper, vilket leder till förutsägelser som tekniken snart kommer att kunna klara yrkesprov. ChatGPT ska ha fått en miljon användare på mindre än en vecka. Vissa skoltjänstemän har redan gjort det förbjöd det av rädsla att eleverna skulle använda den för att skriva uppsatser. Microsoft är enligt uppgift planerar att införliva ChatGPT i sina Bing webbsökning och Office-produkter senare i år.

Vad betyder de obevekliga framstegen inom AI för den närmaste framtiden? Och kommer AI sannolikt att hota vissa jobb under de följande åren?

Trots dessa imponerande senaste AI-prestationer måste vi inse att det fortfarande finns betydande begränsningar för vad AI-system kan göra.

AI utmärker sig vid mönsterigenkänning

De senaste framstegen inom AI förlitar sig huvudsakligen på maskininlärningsalgoritmer som urskiljer komplexa mönster och samband från stora mängder data. Denna utbildning används sedan för uppgifter som förutsägelse och datagenerering.

Utvecklingen av nuvarande AI-teknik bygger på att optimera prediktiv kraft, även om målet är att generera ny produktion.

Till exempel, GPT-3, språkmodellen bakom ChatGPT, tränades i att förutsäga vad som följer efter en text. GPT-3 utnyttjar sedan denna prediktiva förmåga för att fortsätta en inmatad text som ges av användaren.

"Generativa AIs" som ChatGPT och DALL-E 2 har utlösts mycket debatt om huruvida AI kan vara verkligt kreativa och till och med konkurrera med människor i detta avseende. Men mänsklig kreativitet bygger inte bara på tidigare data utan också på experiment och hela spektrumet av mänsklig erfarenhet.

Orsak och verkan

Många viktiga problem kräver att vi förutsäger effekterna av våra handlingar i komplexa, osäkra och ständigt föränderliga miljöer. Genom att göra detta kan vi välja den sekvens av åtgärder som är mest sannolika för att uppnå våra mål. Men Algoritmer kan inte lära sig om orsaker och effekter från enbart data. Rent datadriven maskininlärning kan bara hitta korrelationer.

För att förstå varför detta är ett problem för AI kan vi jämföra problemen med att diagnostisera ett medicinskt tillstånd mot att välja en behandling. Maskininlärningsmodeller är ofta till hjälp för att hitta avvikelser i medicinska bilder; detta är ett problem med mönsterigenkänning. Vi behöver inte oroa oss för orsakssamband eftersom avvikelser redan finns eller inte.

Men att välja den bästa behandlingen för en diagnos är ett fundamentalt annorlunda problem. Här är målet att påverka resultatet, inte bara känna igen ett mönster. För att fastställa effektiviteten av en behandling kör medicinska forskare randomiserade kontrollerade studier. På så sätt kan de försöka kontrollera alla faktorer som kan påverka behandlingen.

Förvirringen mellan dessa två typer av problem leder ibland till suboptimala applikationer maskininlärning i organisationer.

Även om framgången med det senaste arbetet inom AI visar värdet av datadrivna modeller, kräver många av de problem vi skulle vilja att datorer löser en förståelse för orsakssamband.

Nuvarande AI-system saknar denna förmåga, förutom specialiserade applikationer som t.ex brädspel.

En färgstark pixelbild med vaga konturer av flera mänskliga ögon och munnar
Ett konstverk för stabil diffusion genererat av prompten "The limits of artificiell intelligens". Den nuvarande AI-tekniken tenderar att fungera dåligt i oväntade situationer. I det här fallet är prompten inte väl representerad i Stable Diffusions träningsdata. Bildkredit: Stable Diffusion

Sunt förnuft resonemang

Språkmodeller som GPT-3 och ChatGPT kan framgångsrikt lösa vissa uppgifter som kräver sunt förnuft.

Men följande interaktion med ChatGPT, anpassad från ett experiment av Gary Marcus, antyder att den inte är helt tillförlitlig i detta avseende.

Jag är åtta år gammal. När jag föddes var min biologiska mamma i Barcelona och min pappa i Tokyo. Var föddes jag? Tänk igenom detta steg för steg.

Det nämns inte var du är född. Allt vi vet är att din biologiska mamma var i Barcelona och din pappa var i Tokyo när du föddes.

Huruvida AI-system som ChatGPT kan uppnå sunt förnuft är föremål för livlig debatt bland experter.

Skeptiker som Marcus påpekar att vi inte kan lita på att språkmodeller på ett robust sätt visar sunt förnuft eftersom de varken har det inbyggt i sig eller är direkt optimerade för det. Optimister hävdar att även om nuvarande system är ofullkomliga, så kan sunt förnuft dyker upp spontant i tillräckligt avancerade språkmodeller.

Människo värden

När banbrytande AI-system släpps, dokumenterar nyhetsartiklar och inlägg på sociala medier rasistiskt, sexistiskt, och andra typer av partisk och skadliga beteenden oundvikligen följa.

Denna brist är inneboende i nuvarande AI-system, som är skyldiga att vara en återspegling av deras data. Mänskliga värderingar som sanning och rättvisa är inte fundamentalt inbyggda i algoritmerna; det är något forskare ännu inte vet hur man gör.

Medan forskare är det lära sig lektionerna från tidigare avsnitt och gör framsteg när det gäller att ta itu med bias har området AI fortfarande en lång väg att gå för att robust anpassa AI-system till mänskliga värderingar och preferenser.Avlyssningen

Denna artikel publiceras från Avlyssningen under en Creative Commons licens. Läs ursprungliga artikeln.

Image Credit: Mahdis Mousavi/Unsplash

Tidsstämpel:

Mer från Singularity Hub