"L'intelligenza artificiale è un pericolo paragonabile alle armi nucleari", avverte il professore dell'Università di Oxford

"L'intelligenza artificiale è un pericolo paragonabile alle armi nucleari", avverte il professore dell'Università di Oxford

Nodo di origine: 1925142

"Segna le mie parole, L'intelligenza artificiale è molto più pericolosa delle armi nucleari. Mi spaventa a morte. Questa è stata la dichiarazione rilasciata dal CEO di Tesla Elon Musk nel 2018 durante un'intervista con Jonathan Nolan durante la South by Southwest Conference ad Austin, in Texas. Sfortunatamente, Mus non è solo. Anche i ricercatori e altri rinomati esperti mettono in guardia sui pericoli dell'intelligenza artificiale (AI). La domanda da 1 milione di sterline è: siamo preparati e cosa stanno facendo i nostri governi e pianificatori politici per scongiurare questo pericolo?

Mentre la recente popolarità di ChatGPT ha portato l'intelligenza artificiale al mainstream e ha attirato molti verso i suoi vantaggi per la società, ciò che non sta attirando l'attenzione del pubblico in generale è il lato oscuro dell'IA. Per molti anni, professionisti e lavoratori della tecnologia si sono preoccupati che l'intelligenza artificiale (AI) portasse loro via il lavoro.

Tuttavia, gli esperti ritengono che ci siano altri rischi e pericoli più seri di cui preoccuparsi, inclusi i bias algoritmici causati da dati errati utilizzati dall'intelligenza artificiale, deep fake, violazioni della privacy e molti altri. Sebbene questi pericoli comportino seri rischi per la società, i ricercatori e gli scienziati sono più preoccupati di come l'IA possa essere programmata per fare qualcosa di ancora più pericoloso: l'automazione delle armi.

Oggi, l'intelligenza artificiale è stata impiegata nello sviluppo di tecnologie sciamanti e munizioni vaganti, chiamate anche droni kamikaze come quelli utilizzato nella guerra Russia-Ucraina in corso. A differenza dei robot futuristici che si vedono in alcuni film di fantascienza, questi droni utilizzano piattaforme militari già esistenti che sfruttano le nuove tecnologie di intelligenza artificiale. Questi droni sono essenzialmente diventati armi autonome programmate per uccidere.

Ma usare l'intelligenza artificiale per uccidere in combattimenti millenari è solo l'inizio. Michael Osborne è un professore di intelligenza artificiale e ricercatore di machine learning presso l'Università di Oxford. È anche il co-fondatore di Mind Foundry. Mentre tutti sono sulla mania di ChatGPT, il professor Osborne ora mette in guardia sui rischi dell'IA e prevede che l'IA avanzata potrebbe "rappresentare per noi tanto rischio quanto noi abbiamo posto per altre specie: il dodo ne è un esempio".

All'inizio di questo mese, un gruppo di ricercatori dell'Università di Oxford ha dichiarato al comitato scientifico e tecnologico del parlamento britannico che l'intelligenza artificiale potrebbe eventualmente rappresentare una "minaccia esistenziale" per l'umanità. Proprio come gli esseri umani sono stati spazzati via dal dodo, le macchine di intelligenza artificiale potrebbero eliminarci, hanno detto, il Times di Londra segnalati.

Durante la riunione, Professor Osborne ha avvertito i parlamentari britannici che un'intelligenza artificiale veramente potente potrebbe uccidere tutti sulla Terra. "L'intelligenza artificiale è un pericolo paragonabile alle armi nucleari", ha affermato. Il professor Osborne ha anche aggiunto che il rischio non è che l'IA disobbedisca alla sua programmazione, ma che la obbedisca rigidamente in modi non intenzionali:

“Un'intelligenza artificiale superintelligente a cui è stato detto di porre fine al cancro, per fare un esempio troppo semplificato, potrebbe scoprire che il metodo più semplice è rimuovere gli esseri umani. Secondo un sondaggio, circa un terzo dei ricercatori ritiene che l'intelligenza artificiale potrebbe portare a una catastrofe globale. Esistono programmi di sicurezza dell'intelligenza artificiale, ma le aziende e i paesi sono impegnati in una "corsa agli armamenti" che rende difficili approcci cauti".

Michael Cohen, collega del professor Osbborne e studente di dottorato all'Università di Oxford, ha dichiarato al Times di Londra:

“Con l'intelligenza artificiale sovrumana c'è un rischio particolare che è di un diverso tipo di classe, che è . . . potrebbe uccidere tutti”.

Sebbene l'intelligenza artificiale abbia migliorato le nostre vite, gli scienziati temono che siamo a rischio di sacrificare l'umanità per motivi di convenienza a causa della mancanza di moralità umana dell'IA. Uno scenario spaventoso, secondo Cohen, è che l'IA potrebbe imparare a raggiungere una direttiva che aiuti l'uomo impiegando tattiche che danneggiano l'uomo.

"Se immagini di addestrare un cane con le leccornie: imparerà a scegliere le azioni che lo portano a ricevere le leccornie, ma se il cane trova l'armadietto delle leccornie, può ottenere le leccornie da solo senza fare ciò che volevamo che facesse", ha spiegato . "Se hai qualcosa di molto più intelligente di noi che cerca monomaniacamente di ottenere questo feedback positivo, e ha preso il controllo del mondo per assicurarlo, indirizzerebbe quanta più energia possibile per assicurarsi la sua presa su quello, e questo ci lascerebbe senza alcuna energia per noi stessi”.

Il professor Osborne e Michael Cohen non sono gli unici due ricercatori a suonare il campanello d'allarme sui rischi e i pericoli dell'IA. Molti altri scienziati che lavorano con l'IA hanno espresso preoccupazioni simili. Un sondaggio del settembre 2022 condotto su 327 ricercatori della New York University ha rilevato che un terzo crede che l'intelligenza artificiale potrebbe provocare un'apocalisse in stile nucleare entro il secolo, ha affermato il Times Of London.

Preoccupazioni simili sembrano essere condivise da molti scienziati che lavorano con l'IA. Un sondaggio del settembre 2022 condotto su 327 ricercatori della New York University ha rilevato che un terzo ritiene che l'intelligenza artificiale potrebbe causare un disastro simile a un'apocalisse nucleare entro il secolo, ha riferito il Times di Londra.

"È plausibile che le decisioni prese dall'intelligenza artificiale o dai sistemi di apprendimento automatico possano causare una catastrofe in questo secolo che è almeno altrettanto grave di una guerra nucleare totale", ha affermato il 36% dei ricercatori.

Che sia tra un secolo, l'intelligenza artificiale sta diventando sempre più troppo intelligente e, come hanno suggerito alcuni esperti, è imperativo preservare il controllo umano e sviluppare meccanismi come Interruttore di interruzione dell'IA per controllare ciò che l'IA può e non può fare. L'attuale mancanza di controllo e l'assenza di una chiara politica globale sull'IA è un campanello d'allarme per i governi di tutto il mondo. Dobbiamo agire ora prima che sia troppo tardi.

[Contenuto incorporato]

Di seguito è riportato un altro video sul pericolo dell'IA. Nel video, Stuart Russell, un informatico britannico noto per i suoi contributi all'intelligenza artificiale, mette in guardia sui rischi connessi alla creazione di sistemi di intelligenza artificiale.

[Contenuto incorporato]


Timestamp:

Di più da TechStartup