Kan du stole på, at AI beskytter AI?

Kildeknude: 1884060

Slut dig til dagens førende ledere online ved Data Summit den 9. marts. Tilmeld link..


Nu hvor AI er på vej ind i mainstream af IT-arkitektur, er kapløbet i gang for at sikre, at det forbliver sikkert, når det udsættes for datakilder, som er uden for virksomhedens kontrol. Fra datacentret til skyen til kanten, vil AI skulle kæmpe med en lang række sårbarheder og en stadig mere kompleks række af trusler, som næsten alle vil blive drevet af AI selv.

I mellemtiden vil indsatsen blive stadig større, da kunstig intelligens sandsynligvis vil udgøre rygraden i vores sundhedspleje, transport, finans og andre sektorer, der er afgørende for at understøtte vores moderne livsstil. Så før organisationer begynder at skubbe AI for dybt ind i disse distribuerede arkitekturer, kan det måske hjælpe at holde pause et øjeblik for at sikre, at den kan beskyttes tilstrækkeligt.

Tillid og gennemsigtighed

I et nyligt interview med VentureBeat, IBMs chief AI officer Seth Dobrin bemærkede den bygning tillid og gennemsigtighed i hele AI-datakæden er afgørende, hvis virksomheden håber at få maksimal værdi ud af sin investering. I modsætning til traditionelle arkitekturer, der blot kan lukkes ned eller berøves data, når de kompromitteres af vira og malware, er faren for AI meget større, fordi den kan læres at genoptræne sig selv fra de data, den modtager fra et slutpunkt.

"Endepunktet er en REST API, der indsamler data," sagde Dobrin. "Vi er nødt til at beskytte AI mod forgiftning. Vi skal sikre, at AI-endepunkter er sikre og løbende overvåget, ikke kun for ydeevne, men for bias."

For at gøre dette sagde Dobrin, at IBM arbejder på at etablere modstridende robusthed på systemniveau på platforme som Watson. Ved at implementere AI-modeller, der udspørger andre AI-modeller for at forklare deres beslutningsprocesser, og derefter korrigere disse modeller, hvis de afviger fra normer, vil virksomheden være i stand til at opretholde sikkerhedsstillinger med hastigheden af ​​nutidens hurtige digitale økonomi. Men dette kræver et skift i at tænke væk fra at jage og forpurre uhyggelig kode til at overvåge og styre AI's reaktion på, hvad der ser ud til at være almindelige data.

Allerede nu begynder rapporter at cirkulere om de mange geniale måder, hvorpå data bliver manipuleret for at narre AI til at ændre dens kode på skadelige måder. Jim Dempsey, underviser ved UC Berkeley Law School og seniorrådgiver for Stanford Cyber ​​Policy Center, siger, at det er muligt at skabe lyd, der lyder som tale for ML-algoritmer, men ikke for mennesker. Billedgenkendelsessystemer og dybe neurale netværk kan føres på afveje med forstyrrelser, der er umærkelige for det menneskelige øje, nogle gange blot ved at flytte en enkelt pixel. Desuden kan disse angreb iværksættes, selvom gerningsmanden ikke har adgang til selve modellen eller de data, der bruges til at træne den.

Forebyg og reagere

For at imødegå dette skal virksomheden fokusere på to ting. Først siger Dell Technologies globale CTO John Roese, skal den afsætte flere ressourcer til at forebygge og reagere på angreb. De fleste organisationer er dygtige til at opdage trusler ved hjælp af AI-drevne hændelsesinformationsadministrationstjenester eller en udbyder af administreret sikkerhedstjeneste, men forebyggelse og reaktion er stadig for langsomme til at give tilstrækkelig afhjælpning af et alvorligt brud.

Det fører til den anden ændring, virksomheden skal gennemføre, siger Rapid7 CEO Corey Thomas: styrker forebyggelse og respons med mere AI. Dette er en svær pille at sluge for de fleste organisationer, fordi det i bund og grund giver AI spillerum til at foretage ændringer i datamiljøet. Men Thomas siger, at der er måder at gøre dette på, som gør det muligt for kunstig intelligens at fungere på de sikkerhedsaspekter, den er mest dygtig til at håndtere, samtidig med at nøglefunktionerne forbeholdes menneskelige operatører.

I sidste ende handler det om tillid. AI er det nye barn på kontoret lige nu, så det burde ikke have nøglerne til hvælvingen. Men efterhånden som den beviser sit værd i entry-level-indstillinger, bør den opnå tillid ligesom enhver anden medarbejder. Det betyder at belønne det, når det klarer sig godt, lære det at gøre det bedre, når det fejler, og altid at sikre, at det har tilstrækkelige ressourcer og de rigtige data for at sikre, at det forstår det rigtige at gøre og den rigtige måde at gøre det på.

VentureBeats mission skal være et digitalt bytorv for tekniske beslutningstagere for at få viden om transformativ virksomhedsteknologi og handle. Lær mere

Kilde: https://venturebeat.com/2022/02/04/can-you-trust-ai-to-protect-ai/

Tidsstempel:

Mere fra AI – VentureBeat