"AI är en lika jämförbar fara som kärnvapen," varnar Oxford University Professor

"AI är en lika jämförbar fara som kärnvapen," varnar Oxford University Professor

Källnod: 1925142

"Märk mina ord, AI är mycket farligare än kärnvapen. Det skrämmer mig i helvete." Det var uttalandet av Teslas vd Elon Musk 2018 under en intervju med Jonathan Nolan under South by Southwest Conference i Austin, Texas. Tyvärr är Mus inte ensam. Forskare och andra kända experter varnar också för farorna med artificiell intelligens (AI). Frågan på 1 miljon pund är är vi förberedda och vad gör våra regeringar och politiska planerare för att avvärja denna fara?

Även om den senaste populariteten för ChatGPT har fört AI till mainstream och lockat många till dess samhällsfördelar, är det som inte får allmänhetens uppmärksamhet den mörka sidan av AI. I många år har proffs och teknikarbetare oroat sig för att artificiell intelligens (AI) ska ta bort deras jobb.

Men experter tror att det finns andra mer allvarliga risker och faror att vara orolig över, inklusive algoritmisk bias orsakad av dålig data som används av AI, djupa förfalskningar, integritetskränkningar och många fler. Även om dessa faror utgör allvarliga risker för samhället, är forskare och forskare mer oroliga över hur AI skulle kunna programmeras för att göra något ännu farligare: vapenautomatisering.

Idag har AI nu använts i utvecklingen av svärmande teknologier och svävande ammunition, även kallade kamikazedrönare som de som är användes i det pågående kriget mellan Ryssland och Ukraina. Till skillnad från de futuristiska robotarna du ser i vissa sci-fi-filmer använder dessa drönare tidigare existerande militära plattformar som utnyttjar ny AI-teknik. Dessa drönare har i huvudsak blivit autonoma vapen som är programmerade att döda.

Men att använda AI-driven för att döda i milliärstrid är bara början. Michael Osborne är AI-professor och maskininlärningsforskare vid Oxford University. Han är också medgrundare av Mind Foundry. Medan alla är på ChatGPT-ville varnar professor Osborne nu för riskerna med AI och förutspår att avancerad AI kan "utgöra lika stor risk för oss som vi har utgjort för andra arter: dodo är ett exempel."

I början av denna månad sa en grupp forskare från Oxford University till vetenskaps- och teknikkommittén i det brittiska parlamentet att AI så småningom skulle kunna utgöra ett "existentiellt hot" mot mänskligheten. Precis som människor utplånades av dodo, kan AI-maskinerna eliminera oss, sa de, Times Of London rapporterade.

Under mötet, Professor Osborne varnade brittiska parlamentariker för att verkligt kraftfull artificiell intelligens kan döda alla på jorden. "AI är en lika jämförbar fara som kärnvapen," sa han. Professor Osborne tillade också att risken inte är att AI inte lyder dess programmering, utan strikt lyder den på oavsiktliga sätt:

"En superintelligent AI som uppmanas att avsluta cancer, för att ge ett alltför förenklat exempel, kan hitta den enklaste metoden är att ta bort människor. När de tillfrågades tror ungefär en tredjedel av forskarna att AI kan leda till en global katastrof. AI-säkerhetsprogram finns, men företag och länder är engagerade i en "kapprustning" som försvårar försiktiga tillvägagångssätt.

Michael Cohen, professor Osbbornes kollega och doktorand vid Oxford University, sa till The Times of London:

"Med övermänsklig AI finns det en särskild risk som är av en annan typ av klass, som är . . . det kan döda alla."

Även om AI har förbättrat våra liv, fruktar forskare att vi riskerar att offra mänskligheten för bekvämlighetens skull på grund av AI:s brist på mänsklig moral. Ett skrämmande scenario, enligt Cohen, är att AI skulle kunna lära sig att uppnå ett människohjälpande direktiv genom att använda taktik som skadar människor.

"Om du föreställer dig att träna en hund med godsaker: den lär sig att välja handlingar som leder till att den får godsaker, men om hunden hittar godisskåpet kan den få godsakerna själv utan att göra vad vi ville att den skulle göra", förklarade han. . "Om du har något mycket smartare än oss som monomant försöker få den här positiva feedbacken, och det har tagit över världen för att säkra det, skulle det rikta så mycket energi som möjligt på att säkra sitt grepp om det, och det skulle lämna oss utan någon energi för oss själva."

Professor Osborne och Michael Cohen är inte de enda två forskarna som slår larm om riskerna och farorna med AI. Många andra forskare som arbetar med AI har uttryckt liknande oro. En undersökning från september 2022 av 327 forskare vid New York University fann att en tredjedel tror att AI kan åstadkomma en kärnkraftsliknande apokalyps inom århundradet, sa Times Of London.

Liknande farhågor verkar delas av många forskare som arbetar med AI. En undersökning från september 2022 av 327 forskare vid New York University fann att en tredjedel tror att AI kan orsaka en katastrof som liknar en kärnvapenapokalyps under århundradet, rapporterade Times Of London.

"Plausibelt att beslut fattade av AI eller maskininlärningssystem kan orsaka en katastrof detta århundrade som är minst lika illa som ett fullständigt kärnvapenkrig", sa 36 % av forskarna.

Oavsett om det är ett sekel från nu, blir AI alltmer för smart och som vissa experter har föreslagit är det absolut nödvändigt att vi bevarar mänsklig kontroll och utvecklar mekanismer som t.ex. AI kill switch att kontrollera vad AI kan och inte kan göra. Den nuvarande bristen på tillsyn och frånvaron av tydlig global AI-policy är en väckarklocka för regeringar runt om i världen. Vi måste vidta åtgärder nu innan det är för sent.

[Inbäddat innehåll]

Nedan är en annan video om faran med AI. I videon varnar Stuart Russell, en brittisk datavetare känd för sina bidrag till artificiell intelligens, för riskerna med att skapa AI-system.

[Inbäddat innehåll]


Tidsstämpel:

Mer från TechStartups