Kan du stole på AI for å beskytte AI?

Kilde node: 1884060

Bli med dagens ledende ledere online på Data Summit 9. mars. Registrere her..


Nå som AI er på vei inn i mainstream av IT-arkitektur, er kampen i gang for å sikre at den forblir sikker når den eksponeres for datakilder som er utenfor bedriftens kontroll. Fra datasenteret til skyen til kanten, vil AI måtte kjempe med et bredt utvalg av sårbarheter og et stadig mer komplekst utvalg av trusler, som nesten alle vil bli drevet av AI selv.

I mellomtiden vil innsatsen bli stadig høyere, gitt at AI sannsynligvis vil utgjøre ryggraden i helsevesenet, transport, finans og andre sektorer som er avgjørende for å støtte vår moderne livsstil. Så før organisasjoner begynner å presse AI for dypt inn i disse distribuerte arkitekturene, kan det hjelpe å ta en pause et øyeblikk for å sikre at den kan beskyttes tilstrekkelig.

Tillit og åpenhet

I et nylig intervju med VentureBeat, IBMs sjef for kunstig intelligens, Seth Dobrin bemerket den bygningen tillit og åpenhet i hele AI-datakjeden er avgjørende hvis bedriften håper å få maksimal verdi fra investeringene sine. I motsetning til tradisjonelle arkitekturer som bare kan stenges ned eller frarøves data når de kompromitteres av virus og skadelig programvare, er faren for AI mye større fordi den kan læres å trene seg opp fra dataene den mottar fra et endepunkt.

"Endepunktet er et REST API som samler inn data," sa Dobrin. "Vi må beskytte AI mot forgiftning. Vi må sørge for at AI-endepunkter er sikre og kontinuerlig overvåket, ikke bare for ytelse, men for skjevhet."

For å gjøre dette sa Dobrin at IBM jobber med å etablere motstridende robusthet på systemnivå for plattformer som Watson. Ved å implementere AI-modeller som avhører andre AI-modeller for å forklare beslutningsprosessene deres, og deretter korrigere disse modellene hvis de avviker fra normer, vil bedriften kunne opprettholde sikkerhetsstillinger med hastigheten til dagens raske digitale økonomi. Men dette krever et skifte i å tenke bort fra å jakte og forpurre ond kode til å overvåke og administrere AIs reaksjon på det som ser ut til å være vanlige data.

Allerede begynner det å sirkulere rapporter om de mange geniale måtene data blir manipulert på for å lure AI til å endre koden på skadelige måter. Jim Dempsey, foreleser ved UC Berkeley Law School og seniorrådgiver for Stanford Cyber ​​Policy Center, sier at det er mulig å lage lyd som høres ut som tale for ML-algoritmer, men ikke for mennesker. Bildegjenkjenningssystemer og dype nevrale nettverk kan føres på villspor med forstyrrelser som er umerkelige for det menneskelige øyet, noen ganger bare ved å flytte en enkelt piksel. Videre kan disse angrepene settes i gang selv om gjerningsmannen ikke har tilgang til selve modellen eller dataene som brukes til å trene den.

Forhindre og reagere

For å motvirke dette må virksomheten fokusere på to ting. Først, sier Dell Technologies globale CTO John Roese, må den bruke mer ressurser på å forebygge og reagere på angrep. De fleste organisasjoner er dyktige til å oppdage trusler ved å bruke AI-drevne hendelsesinformasjonsadministrasjonstjenester eller en leverandør av administrerte sikkerhetstjenester, men forebygging og respons er fortsatt for sakte til å gi tilstrekkelig avbøtelse av et alvorlig brudd.

Dette fører til den andre endringen virksomheten må gjennomføre, sier Rapid7-sjef Corey Thomas: styrk forebygging og respons med mer AI. Dette er en tøff pille å svelge for de fleste organisasjoner fordi det i hovedsak gir AI spillerom til å gjøre endringer i datamiljøet. Men Thomas sier at det finnes måter å gjøre dette på som lar AI fungere på de sikkerhetsaspektene den er mest dyktig til å håndtere, samtidig som nøkkelfunksjoner reserveres til menneskelige operatører.

Til slutt handler det om tillit. AI er den nye gutten på kontoret akkurat nå, så den burde ikke ha nøklene til hvelvet. Men over tid, ettersom den beviser sin verdi i inngangsnivå, bør den tjene tillit akkurat som alle andre ansatte. Dette betyr å belønne den når den presterer bra, lære den å gjøre det bedre når den mislykkes, og alltid sørge for at den har tilstrekkelige ressurser og riktige data for å sikre at den forstår den rette tingen å gjøre og den riktige måten å gjøre det på.

VentureBeats oppdrag skal være et digitalt bytorg for tekniske beslutningstakere for å få kunnskap om transformativ bedriftsteknologi og transaksjoner. lær MER

Kilde: https://venturebeat.com/2022/02/04/can-you-trust-ai-to-protect-ai/

Tidstempel:

Mer fra AI - VentureBeat