"AI er en lige så sammenlignelig fare som atomvåben," advarer Oxford University Professor

"AI er en lige så sammenlignelig fare som atomvåben," advarer Oxford University Professor

Kildeknude: 1925142

"Mærk dig mine ord, AI er meget farligere end atomvåben. Det skræmmer fanden ud af mig." Det var udtalelsen fra Teslas administrerende direktør Elon Musk i 2018 under et interview med Jonathan Nolan under South by Southwest Conference i Austin, Texas. Desværre er Mus ikke alene. Forskere og andre anerkendte eksperter advarer også om farerne ved kunstig intelligens (AI). Spørgsmålet på 1 million pund er, om vi er forberedte, og hvad gør vores regeringer og politiske planlæggere for at afværge denne fare?

Mens den nylige popularitet af ChatGPT har bragt AI til mainstream og lokket mange til dets samfundsmæssige fordele, er det, der ikke får offentlighedens opmærksomhed, den mørke side af AI. I mange år har fagfolk og teknikere bekymret sig om, at kunstig intelligens (AI) fjerner deres job.

Eksperter mener dog, at der er andre mere alvorlige risici og farer at være bekymret over, herunder algoritmisk bias forårsaget af dårlige data brugt af AI, dybe forfalskninger, krænkelser af privatlivets fred og mange flere. Selvom disse farer udgør alvorlige risici for samfundet, er forskere og videnskabsmænd mere bekymrede for, hvordan kunstig intelligens kan programmeres til at gøre noget endnu farligere: automatisering af våben.

I dag er kunstig intelligens nu blevet brugt i udviklingen af ​​sværmende teknologier og svævende ammunition, også kaldet kamikaze-droner som dem, der er brugt i den igangværende krig mellem Rusland og Ukraine. I modsætning til de futuristiske robotter, du ser i nogle sci-fi-film, bruger disse droner tidligere eksisterende militære platforme, der udnytter nye AI-teknologier. Disse droner er i bund og grund blevet autonome våben, der er programmeret til at dræbe.

Men at bruge AI-drevet til at dræbe i milliærkamp er kun begyndelsen. Michael Osborne er AI-professor og maskinlæringsforsker ved Oxford University. Han er også medstifter af Mind Foundry. Mens alle er på ChatGPT-dille, advarer professor Osborne nu om risiciene ved kunstig intelligens og forudsiger, at avanceret kunstig intelligens kan "udgøre lige så stor risiko for os, som vi har udgjort for andre arter: Dodo'en er et eksempel."

I begyndelsen af ​​denne måned fortalte en gruppe forskere fra Oxford University til videnskabs- og teknologiudvalget i det britiske parlament, at kunstig intelligens i sidste ende kunne udgøre en "eksistentiel trussel" mod menneskeheden. Ligesom mennesker blev udslettet af dodo'en, kunne AI-maskinerne eliminere os, sagde de, The Times Of London rapporteret.

Under mødet Professor Osborne advarede britiske parlamentarikere om, at virkelig kraftfuld kunstig intelligens kunne dræbe alle på Jorden. "AI er en lige så sammenlignelig fare som atomvåben," sagde han. Professor Osborne tilføjede også, at risikoen ikke er, at AI ikke adlyder dets programmering, men stift adlyder det på utilsigtede måder:

"En superintelligent AI, der bliver bedt om at stoppe kræft, for at give et forsimplet eksempel, kan finde ud af, at den nemmeste metode er at fjerne mennesker. Når de blev spurgt, mener omkring en tredjedel af forskerne, at kunstig intelligens kan føre til en global katastrofe. AI-sikkerhedsprogrammer findes, men virksomheder og lande er involveret i et "våbenkapløb", der gør forsigtige tilgange vanskelige."

Michael Cohen, professor Osbbornes kollega og doktorand ved Oxford University, sagde til The Times of London:

"Med overmenneskelig AI er der en særlig risiko, der er af en anden klasse, som er . . . det kunne dræbe alle."

Mens AI har forbedret vores liv, frygter videnskabsmænd, at vi risikerer at ofre menneskeheden for bekvemmelighedens skyld på grund af AI's mangel på menneskelig moral. Et skræmmende scenarie, ifølge Cohen, er, at AI kunne lære at opnå et menneskehjælpende direktiv ved at anvende menneskeskadende taktikker.

"Hvis du forestiller dig at træne en hund med godbidder: den vil lære at vælge handlinger, der fører til, at den får godbidder, men hvis hunden finder godbidsskabet, kan den få godbidderne selv uden at gøre, hvad vi ville have den til at gøre," forklarede han. . "Hvis du har noget, der er meget smartere end os, der monomant forsøger at få denne positive feedback, og det har overtaget verden for at sikre det, ville det lede så meget energi, som det kunne, til at sikre sit greb om det, og det ville efterlade os uden nogen energi til os selv.”

Professor Osborne og Michael Cohen er ikke de eneste to forskere, der slår alarmklokken om risici og farer ved AI. Mange andre videnskabsmænd, der arbejder med kunstig intelligens, har udtrykt lignende bekymringer. En undersøgelse fra september 2022 af 327 forskere ved New York University viste, at en tredjedel mener, at kunstig intelligens kunne frembringe en apokalypse i nuklear stil inden for århundredet, sagde Times Of London.

Lignende bekymringer ser ud til at blive delt af mange forskere, der arbejder med kunstig intelligens. En undersøgelse fra september 2022 blandt 327 forskere ved New York University viste, at en tredjedel mener, at kunstig intelligens kan forårsage en katastrofe, der ligner en atomapokalypse inden for århundredet, rapporterede Times Of London.

"Plausibelt, at beslutninger truffet af AI eller maskinlæringssystemer kan forårsage en katastrofe i dette århundrede, der er mindst lige så slem som en total atomkrig," sagde 36% af forskerne.

Uanset om det er et århundrede fra nu, bliver kunstig intelligens i stigende grad for smart, og som nogle eksperter har foreslået, er det bydende nødvendigt, at vi bevarer menneskelig kontrol og udvikler mekanismer som f.eks. AI kill switch at kontrollere, hvad AI kan og ikke kan. Den nuværende mangel på tilsyn og fravær af en klar global AI-politik er et wake-up call for regeringer over hele verden. Vi er nødt til at handle nu, før det er for sent.

[Indlejret indhold]

Nedenfor er en anden video om faren ved AI. I videoen advarer Stuart Russell, en britisk computerforsker kendt for sine bidrag til kunstig intelligens, om de risici, der er forbundet med skabelsen af ​​AI-systemer.

[Indlejret indhold]


Tidsstempel:

Mere fra TechStartups