Voitko luottaa tekoälyyn suojaamaan tekoälyä?

Lähdesolmu: 1884060

Liity nykypäivän johtavien johtajien joukkoon verkossa Data Summitissa 9. maaliskuuta. Rekisteröidy tätä.


Nyt kun tekoäly on siirtymässä IT-arkkitehtuurin valtavirtaan, kilpailu on käynnissä sen varmistamiseksi, että se pysyy turvassa, kun se altistuu tietolähteille, jotka eivät ole yrityksen hallinnassa. Tekoälyn on kohdattava lukuisia haavoittuvuuksia ja yhä monimutkaisempia uhkia palvelinkeskuksesta pilveen ja reunaan asti, joista lähes kaikki on tekoälyn itsensä ohjaama.

Samaan aikaan panokset ovat yhä korkeammat, koska tekoäly muodostaa todennäköisesti terveydenhuollon, kuljetusten, rahoituksen ja muiden nykyaikaisen elämäntapamme tukemisen kannalta ratkaisevan tärkeän sektorimme selkärangan. Joten ennen kuin organisaatiot alkavat työntää tekoälyä näihin hajautettuihin arkkitehtuureihin liian syvälle, voi olla hyödyllistä pysähtyä hetkeksi varmistaakseen, että se voidaan suojata riittävästi.

Luottamus ja avoimuus

Äskettäisessä VentureBeatin haastattelussa IBM:n tekoälypäällikkö Seth Dobrin huomautti tuosta rakennuksesta luottamusta ja läpinäkyvyyttä koko tekoälyn tietoketjuun on ratkaisevan tärkeää, jos yritys toivoo saavansa suurimman arvon sijoituksestaan. Toisin kuin perinteiset arkkitehtuurit, jotka voidaan vain sulkea tai ryöstää tiedot virusten ja haittaohjelmien vaarantuessa, vaara tekoälylle on paljon suurempi, koska se voidaan opettaa oppimaan uudelleen päätepisteestä saamansa datan perusteella.

"Päätepiste on REST API, joka kerää tietoja", Dobrin sanoi. "Meidän on suojeltava tekoälyä myrkytykseltä. Meidän on varmistettava, että tekoälypäätepisteet ovat turvallisia ja että niitä seurataan jatkuvasti, ei vain suorituskyvyn, vaan myös harhojen vuoksi."

Tätä varten Dobrin sanoi, että IBM työskentelee perustaakseen vastakkainen kestävyys Watsonin kaltaisten alustojen järjestelmätasolla. Ottamalla käyttöön tekoälymalleja, jotka kyselevät muita tekoälymalleja selittääkseen niiden päätöksentekoprosesseja ja korjaavat sitten malleja, jos ne poikkeavat normeista, yritys pystyy säilyttämään turvallisuusasennot nykypäivän nopeatempoisessa digitaalitaloudessa. Mutta tämä vaatii ajattelun siirtymistä pois metsästämisestä ja pahan koodin estämisestä valvomaan ja hallitsemaan tekoälyn reaktiota tavalliselta näyttävään dataan.

Raportit ovat jo alkaneet kiertää monista nerokkaista tavoista, joilla tietoja manipuloidaan tekoälyn huijaamiseksi muuttamaan koodiaan haitallisilla tavoilla. Jim Dempsey, luennoitsija UC Berkeley Law Schoolissa ja Stanfordin kyberpolitiikkakeskuksen vanhempi neuvonantaja, sanoo, että on mahdollista luoda ääntä, joka kuulostaa puheelta ML-algoritmeille, mutta ei ihmisille. Kuvantunnistusjärjestelmät ja syvät hermoverkot voidaan johtaa harhaan ihmissilmälle huomaamattomilla häiriöillä, joskus vain yhtä pikseliä siirtämällä. Lisäksi nämä hyökkäykset voidaan käynnistää, vaikka tekijällä ei olisi pääsyä itse malliin tai sen kouluttamiseen käytettyihin tietoihin.

Estä ja vastaa

Tämän torjumiseksi yrityksen on keskityttävä kahteen asiaan. Ensinnäkin, sanoo Dell Technologiesin globaali teknologiajohtaja John Roese, sen on osoitettava enemmän resursseja hyökkäysten ehkäisemiseen ja niihin vastaamiseen. Useimmat organisaatiot ovat taitavia havaitsemaan uhkia tekoälypohjaisten tapahtumatietojen hallintapalvelujen tai hallitun tietoturvapalvelun tarjoajan avulla, mutta ennaltaehkäisy ja reagointi ovat edelleen liian hitaita tarjoamaan riittävää lieventämistä vakavalle tietomurrolle.

Tämä johtaa toiseen muutokseen, joka yrityksen on toteutettava, sanoo Rapid7:n toimitusjohtaja Corey Thomas: tehosta ehkäisyä ja reagointia lisäämällä tekoälyä. Tämä on vaikea pilleri niellä useimmille organisaatioille, koska se antaa tekoälylle liikkumavaraa muuttaa tietoympäristöä. Mutta Thomas sanoo, että on olemassa tapoja tehdä tämä, jotta tekoäly voi toimia niillä turvallisuusnäkökohdilla, joita se on taitavimmin käsittelemään, samalla kun se varaa keskeiset ominaisuudet ihmiskäyttäjille.

Lopulta kyse on luottamuksesta. Tekoäly on toimiston uusi lapsi tällä hetkellä, joten sillä ei pitäisi olla holvin avaimia. Mutta ajan myötä, koska se todistaa arvonsa lähtötason asetuksissa, sen pitäisi ansaita luottamus aivan kuten minkä tahansa muun työntekijän. Tämä tarkoittaa sen palkitsemista, kun se toimii hyvin, sen opettamista toimimaan paremmin, kun se epäonnistuu, ja aina varmistaa, että sillä on riittävät resurssit ja oikeat tiedot varmistaakseen, että se ymmärtää oikean asian ja oikean tavan tehdä se.

VentureBeatin tehtävä on digitaalinen kaupunginaukio teknisille päättäjille, jotka saavat tietoa transformatiivisesta yritysteknologiasta ja asioivat. Lisätietoja

Lähde: https://venturebeat.com/2022/02/04/can-you-trust-ai-to-protect-ai/

Aikaleima:

Lisää aiheesta AI - VentureBeat