Kan du lita på att AI skyddar AI?

Källnod: 1884060

Följ med dagens ledande chefer online på Data Summit den 9 mars. Registrera här..


Nu när AI är på väg in i huvudströmmen av IT-arkitektur, är kapplöpningen igång för att säkerställa att den förblir säker när den utsätts för datakällor som ligger utanför företagets kontroll. Från datacentret till molnet till kanten kommer AI att behöva brottas med en mängd olika sårbarheter och en allt mer komplex uppsättning hot, som nästan alla kommer att drivas av AI själv.

Samtidigt kommer insatserna att bli allt större, med tanke på att AI sannolikt kommer att utgöra ryggraden i vår sjukvård, transport, finans och andra sektorer som är avgörande för att stödja vårt moderna sätt att leva. Så innan organisationer börjar driva in AI för djupt i dessa distribuerade arkitekturer, kan det hjälpa att pausa en stund för att säkerställa att den kan skyddas på ett adekvat sätt.

Förtroende och transparens

I en nyligen intervju med VentureBeat, IBMs chief AI officer Seth Dobrin noterade den byggnaden förtroende och transparens i hela AI-datakedjan är avgörande om företaget hoppas få maximalt värde från sin investering. Till skillnad från traditionella arkitekturer som bara kan stängas av eller rånas på data när de äventyras av virus och skadlig kod, är faran för AI mycket större eftersom den kan läras att träna om sig själv från den data den tar emot från en slutpunkt.

"Slutpunkten är ett REST API som samlar in data," sa Dobrin. "Vi måste skydda AI från förgiftning. Vi måste se till att AI-slutpunkter är säkra och kontinuerligt övervakade, inte bara för prestanda utan för partiskhet."

För att göra detta sa Dobrin att IBM arbetar med att etablera kontradiktorisk robusthet på systemnivå för plattformar som Watson. Genom att implementera AI-modeller som utfrågar andra AI-modeller för att förklara deras beslutsprocesser, och sedan korrigera dessa modeller om de avviker från normer, kommer företaget att kunna upprätthålla säkerhetsställningar i takt med dagens snabba digitala ekonomi. Men detta kräver en förändring i att tänka bort från att jaga och motarbeta skändlig kod till att övervaka och hantera AI:s reaktion på vad som verkar vara vanliga data.

Redan nu börjar rapporter cirkulera om de många geniala sätten på vilka data manipuleras för att lura AI att ändra sin kod på skadliga sätt. Jim Dempsey, föreläsare vid UC Berkeley Law School och senior rådgivare till Stanford Cyber ​​Policy Center, säger att det är möjligt att skapa ljud som låter som tal för ML-algoritmer men inte för människor. Bildigenkänningssystem och djupa neurala nätverk kan ledas vilse med störningar som är omärkliga för det mänskliga ögat, ibland bara genom att flytta en enda pixel. Dessutom kan dessa attacker startas även om gärningsmannen inte har tillgång till själva modellen eller den data som används för att träna den.

Förhindra och svara

För att motverka detta måste företaget fokusera på två saker. Först, säger Dell Technologies globala CTO John Roesemåste den ägna mer resurser till att förebygga och reagera på attacker. De flesta organisationer är skickliga på att upptäcka hot med hjälp av AI-drivna händelseinformationshanteringstjänster eller en leverantör av hanterade säkerhetstjänster, men förebyggande och respons är fortfarande för långsamma för att ge adekvat mildring av ett allvarligt intrång.

Detta leder till den andra förändringen som företaget måste genomföra, säger Rapid7 VD Corey Thomas: stärk förebyggande och respons med mer AI. Detta är ett svårt piller att svälja för de flesta organisationer eftersom det i huvudsak ger AI utrymme att göra ändringar i datamiljön. Men Thomas säger att det finns sätt att göra detta på som gör att AI kan fungera på de säkerhetsaspekter som den är skickligast på att hantera samtidigt som nyckelfunktionerna reserveras för mänskliga operatörer.

I slutändan handlar det om tillit. AI är det nya barnet på kontoret just nu, så det borde inte ha nycklarna till valvet. Men med tiden, eftersom det bevisar sitt värde i nybörjarinställningar, bör det tjäna förtroende precis som alla andra anställda. Detta innebär att belöna den när den presterar bra, lära den att göra bättre ifrån sig när den misslyckas, och alltid se till att den har tillräckliga resurser och rätt data för att säkerställa att den förstår rätt sak att göra och rätt sätt att göra det.

VentureBeats uppdrag ska vara ett digitalt stadstorg för tekniska beslutsfattare att få kunskap om transformativ företagsteknologi och handla. Läs mer

Källa: https://venturebeat.com/2022/02/04/can-you-trust-ai-to-protect-ai/

Tidsstämpel:

Mer från AI - VentureBeat