Ali lahko zaupate AI za zaščito AI?

Izvorno vozlišče: 1884060

Pridružite se današnjim vodilnim direktorjem na spletu na Data Summitu 9. marca. Registrirajte se tukaj.


Zdaj, ko se umetna inteligenca usmerja v glavni tok IT-arhitekture, poteka tekma za zagotovitev, da ostane varna, ko je izpostavljena virom podatkov, ki so izven nadzora podjetja. Umetna inteligenca se bo morala od podatkovnega centra do oblaka in na robovih soočiti s široko paleto ranljivosti in vedno bolj zapletenim naborom groženj, od katerih bo skoraj vse vodila umetna inteligenca sama.

Medtem bodo vložki čedalje večji, glede na to, da bo umetna inteligenca verjetno zagotovila hrbtenico našega zdravstva, transporta, financ in drugih sektorjev, ki so ključni za podporo našemu sodobnemu načinu življenja. Preden torej organizacije začnejo pregloboko potiskati umetno inteligenco v te porazdeljene arhitekture, bi morda pomagalo, če se za trenutek ustavite in zagotovite, da je lahko ustrezno zaščitena.

Zaupanje in preglednost

V nedavnem intervjuju za VentureBeat, IBM-ov vodja AI Seth Dobrin opazil to zgradbo zaupanje in preglednost v celotno podatkovno verigo AI je ključnega pomena, če podjetje upa, da bo iz svoje naložbe pridobilo največjo vrednost. V nasprotju s tradicionalnimi arhitekturami, ki jih je mogoče samo zapreti ali oropati podatkov, ko jih ogrozijo virusi in zlonamerna programska oprema, je nevarnost za AI veliko večja, ker jo je mogoče naučiti, da se prekvalificira iz podatkov, ki jih prejme od končne točke.

"Končna točka je REST API, ki zbira podatke," je dejal Dobrin. »Umetno inteligenco moramo zaščititi pred zastrupitvijo. Zagotoviti moramo, da so končne točke umetne inteligence varne in nenehno nadzorovane, ne le zaradi učinkovitosti, ampak tudi zaradi pristranskosti.«

Dobrin je dejal, da IBM dela na vzpostavitvi tega kontradiktorna robustnost na sistemski ravni platform, kot je Watson. Z uvedbo modelov umetne inteligence, ki zaslišujejo druge modele umetne inteligence, da pojasnijo njihove procese odločanja, in nato popravijo te modele, če odstopajo od norm, bo podjetje lahko ohranilo varnostne položaje s hitrostjo današnjega hitrega digitalnega gospodarstva. Toda to zahteva premik v razmišljanju stran od lova in preprečevanja zlobne kode k spremljanju in upravljanju odziva umetne inteligence na podatke, ki se zdijo običajni.

Že začenjajo krožiti poročila o številnih domiselnih načinih manipulacije podatkov, da bi preslepili AI, da spremeni svojo kodo na škodljive načine. Jim Dempsey, predavatelj na pravni fakulteti UC Berkeley in višji svetovalec Centra za kibernetsko politiko Stanford, pravi, da je mogoče ustvariti zvok, ki algoritmom ML zveni kot govor, ljudem pa ne. Sistemi za prepoznavanje slik in globoke nevronske mreže se lahko zavedejo z motnjami, ki jih človeško oko ne opazi, včasih le s premikom ene pike. Poleg tega se ti napadi lahko sprožijo, tudi če storilec nima dostopa do samega modela ali podatkov, uporabljenih za njegovo usposabljanje.

Preprečiti in odgovoriti

Da bi se temu izognili, se mora podjetje osredotočiti na dve stvari. Prvič, pravi Globalni tehnični direktor Dell Technologies John Roese, mora več sredstev nameniti preprečevanju napadov in odzivanju nanje. Večina organizacij je spretnih pri odkrivanju groženj z uporabo storitev upravljanja informacij o dogodkih, ki jih poganja umetna inteligenca, ali ponudnika storitev upravljane varnosti, vendar sta preprečevanje in odzivanje še vedno prepočasna, da bi zagotovila ustrezno ublažitev resne kršitve.

To vodi do druge spremembe, ki jo mora podjetje izvesti, pravi Generalni direktor Rapid7 Corey Thomas: opolnomočite preprečevanje in odzivanje z več umetne inteligence. To je za večino organizacij težko pogoltniti tableto, saj daje umetni inteligenci manevrski prostor za spreminjanje podatkovnega okolja. Toda Thomas pravi, da obstajajo načini za to, ki omogočajo AI, da deluje na vidikih varnosti, pri katerih je najbolj spreten, medtem ko ključne zmogljivosti rezervirajo za človeške operaterje.

Na koncu pride do zaupanja. AI je trenutno nov otrok v pisarni, zato ne bi smel imeti ključev od trezorja. Toda sčasoma, ko dokaže svojo vrednost v začetnih nastavitvah, bi moral pridobiti zaupanje tako kot vsi drugi zaposleni. To pomeni, da ga nagrajujemo, ko se dobro obnese, ga učimo, da dela bolje, ko mu ne uspe, in vedno poskrbimo, da ima ustrezne vire in ustrezne podatke, s katerimi zagotovimo, da razume pravo stvar in pravi način za to.

Poslanstvo VentureBeata je digitalni mestni trg za tehnične odločevalce, da pridobijo znanje o transformativni podjetniški tehnologiji in transakcijah. Več

Vir: https://venturebeat.com/2022/02/04/can-you-trust-ai-to-protect-ai/

Časovni žig:

Več od AI – VentureBeat