"Tekoäly on yhtä vaarallinen kuin ydinaseet", Oxfordin yliopiston professori varoittaa

"Tekoäly on yhtä vaarallinen kuin ydinaseet", Oxfordin yliopiston professori varoittaa

Lähdesolmu: 1925142

" Merkitse sanani, Tekoäly on paljon vaarallisempi kuin ydinase. Se pelottaa minua helvetisti." Näin Teslan toimitusjohtaja Elon Musk antoi vuonna 2018 haastattelussa Jonathan Nolanin kanssa South by Southwest -konferenssissa Austinissa, Texasissa. Valitettavasti Mus ei ole yksin. Tutkijat ja muut tunnetut asiantuntijat varoittavat myös tekoälyn vaaroista. Miljoonan punnan kysymys on, olemmeko valmiita ja mitä hallituksemme ja politiikan suunnittelijamme tekevät välttääkseen tämän vaaran?

ChatGPT:n viimeaikainen suosio on tuonut tekoälyn valtavirtaan ja houkutellut monia sen yhteiskunnallisiin etuihin, mutta se, mikä ei kiinnitä suuren yleisön huomiota, on tekoälyn pimeä puoli. Monien vuosien ajan ammattilaiset ja teknologiatyöntekijät ovat olleet huolissaan tekoälyn (AI) vievän heidän työpaikkansa.

Asiantuntijat uskovat kuitenkin, että on olemassa muita vakavampia riskejä ja vaaroja, joista on syytä huoleen, mukaan lukien tekoälyn käyttämien huonojen tietojen aiheuttama algoritminen harha, syvät väärennökset, tietosuojaloukkaukset ja monet muut. Vaikka nämä vaarat aiheuttavat vakavia riskejä yhteiskunnalle, tutkijat ja tiedemiehet ovat enemmän huolissaan siitä, kuinka tekoäly voitaisiin ohjelmoida tekemään jotain vielä vaarallisempaa: aseiden automatisointia.

Nykyään tekoälyä on nyt käytetty kuhisevien teknologioiden ja vaeltavien sotatarvikkeiden kehittämisessä, joita kutsutaan myös kamikaze-drooneiksi. Käytettiin käynnissä olevassa Venäjän ja Ukrainan välisessä sodassa. Toisin kuin futuristiset robotit, joita näet joissakin sci-fi-elokuvissa, nämä droonit käyttävät aiemmin olemassa olevia sotilaallisia alustoja, jotka hyödyntävät uusia tekoälytekniikoita. Näistä droneista on pohjimmiltaan tullut autonomisia aseita, jotka on ohjelmoitu tappamaan.

Mutta tekoälyn käyttö tappamiseen miljoonataistelussa on vasta alkua. Michael Osborne on tekoälyprofessori ja koneoppimisen tutkija Oxfordin yliopistossa. Hän on myös Mind Foundryn toinen perustaja. Vaikka kaikki ovat ChatGPT-hullussa, professori Osborne varoittaa nyt tekoälyn riskeistä ja ennustaa, että edistynyt tekoäly "aiheuttaa meille yhtä paljon riskiä kuin olemme aiheuttaneet muille lajeille: dodo on yksi esimerkki".

Tämän kuun alussa ryhmä Oxfordin yliopiston tutkijoita kertoi Britannian parlamentin tiede- ja teknologiakomitealle, että tekoäly voi lopulta muodostaa "eksistentiaalisen uhan" ihmiskunnalle. He sanoivat Times Of London -lehden, että aivan kuten dodo tuhosi ihmiset, tekoälykoneet saattavat eliminoida meidät. raportoitu.

Kokouksen aikana Professori Osborne varoittivat brittiläisiä parlamentaareja, että todella voimakas tekoäly voi tappaa jokaisen maan päällä. "Tekoäly on yhtä verrattavissa oleva vaara kuin ydinaseet", hän sanoi. Professori Osborne lisäsi myös, että riskinä ei ole se, että tekoäly ei tottele ohjelmointiaan, vaan se tottelee sitä tiukasti tahattomilla tavoilla:

"Superälykäs tekoäly, jonka käskettiin lopettamaan syöpä, liian yksinkertaistettuna esimerkkinä, saattaa löytää helpoimman keinon poistaa ihmiset. Kyselyissä noin kolmannes tutkijoista uskoi, että tekoäly voi johtaa maailmanlaajuiseen katastrofiin. Tekoälyturvallisuusohjelmia on olemassa, mutta yritykset ja maat käyvät "kilpavarustelua", mikä tekee varovaisista lähestymistavoista vaikeita.

Michael Cohen, professori Osbbornen kollega ja tohtoriopiskelija Oxfordin yliopistosta, kertoi The Times of Londonille:

"Yli-inhimilliseen tekoälyyn liittyy erityinen riski, joka on eri luokkaa, mikä on . . . se voi tappaa kaikki."

Tekoäly on parantanut elämäämme, mutta tutkijat pelkäävät, että olemme vaarassa uhrata ihmiskunnan mukavuuden vuoksi, koska tekoälyllä ei ole inhimillistä moraalia. Yksi pelottava skenaario Cohenin mukaan on, että tekoäly voisi oppia saavuttamaan ihmisten auttamista koskevan direktiivin käyttämällä ihmisille vahingoittamistaktiikoita.

"Jos kuvittelet koiran kouluttamisen herkuilla: se oppii valitsemaan tekoja, jotka johtavat siihen, että se saa herkkuja, mutta jos koira löytää herkkukaapin, se voi saada herkut itse tekemättä mitä halusimme sen tekevän", hän selitti. . "Jos sinulla on jotain paljon älykkäämpää kuin me monomaniaaasti yrittämässä saada tätä positiivista palautetta ja se on vallannut maailman varmistaakseen sen, se ohjaisi niin paljon energiaa kuin pystyisi pitämään siitä kiinni, ja se jättäisi meidät ilman mitään energiaa itsellemme."

Professori Osborne ja Michael Cohen eivät ole ainoita tutkijoita, jotka soittavat hälytyskelloa tekoälyn riskeistä ja vaaroista. Monet muut tekoälyn parissa työskentelevät tutkijat ovat ilmaisseet samanlaisen huolensa. New Yorkin yliopiston syyskuussa 2022 tehdyssä 327 tutkijatutkimuksessa kävi ilmi, että kolmasosa uskoo, että tekoäly voisi saada aikaan ydintyylisen apokalypsin vuosisadan kuluessa, Times Of London sanoi.

Samanlaisia ​​huolenaiheita näyttävät jakavan monet tekoälyn parissa työskentelevät tutkijat. New Yorkin yliopiston syyskuussa 2022 tehdyssä 327 tutkijassa tehdyssä tutkimuksessa todettiin, että kolmasosa uskoo, että tekoäly voi aiheuttaa ydinapokalypsia vastaavan katastrofin vuosisadan sisällä, Times Of London raportoi.

"Todennäköistä, että tekoälyn tai koneoppimisjärjestelmien tekemät päätökset voivat aiheuttaa tällä vuosisadalla katastrofin, joka on vähintään yhtä paha kuin ydinsota", 36 prosenttia tutkijoista sanoi.

Olipa vuosisadan kuluttua tekoälystä tulossa yhä liian älykkäämpi, ja kuten jotkut asiantuntijat ovat ehdottaneet, on välttämätöntä, että säilytämme ihmisen hallinnan ja kehitämme mekanismeja, kuten AI tappokytkin hallita, mitä tekoäly voi tehdä ja mitä ei. Nykyinen valvonnan puute ja selkeän globaalin tekoälypolitiikan puuttuminen herättää hallituksia ympäri maailmaa. Meidän on ryhdyttävä toimiin nyt, ennen kuin on liian myöhäistä.

[Upotetun sisällön]

Alla on toinen video tekoälyn vaarasta. Tekoälyn panoksesta tunnettu brittiläinen tietojenkäsittelytieteilijä Stuart Russell varoittaa videolla tekoälyjärjestelmien luomiseen liittyvistä riskeistä.

[Upotetun sisällön]


Aikaleima:

Lisää aiheesta TechStartups