Kun je AI vertrouwen om AI te beschermen?

Bronknooppunt: 1884060

Sluit u aan bij de toonaangevende leidinggevenden van vandaag online tijdens de Data Summit op 9 maart. Register hier.


Nu AI de mainstream van de IT-architectuur binnendringt, is de race begonnen om ervoor te zorgen dat het veilig blijft wanneer het wordt blootgesteld aan gegevensbronnen die buiten de controle van de onderneming liggen. Van het datacenter tot de cloud en de edge: AI zal te maken krijgen met een grote verscheidenheid aan kwetsbaarheden en een steeds complexer wordende reeks bedreigingen, die bijna allemaal door AI zelf zullen worden aangestuurd.

Ondertussen zal de inzet steeds groter worden, aangezien AI waarschijnlijk de ruggengraat zal vormen van onze gezondheidszorg, transport, financiรซn en andere sectoren die cruciaal zijn om onze moderne manier van leven te ondersteunen. Dus voordat organisaties AI te diep in deze gedistribueerde architecturen gaan pushen, kan het helpen om even stil te staan โ€‹โ€‹om ervoor te zorgen dat deze adequaat kan worden beschermd.

Vertrouwen en transparantie

In een recent interview met VentureBeat, IBM-chef AI-functionaris Seth Dobrin merkte dat gebouw op vertrouwen en transparantie in de gehele AI-dataketen is van cruciaal belang als de onderneming maximale waarde uit haar investering wil halen. In tegenstelling tot traditionele architecturen die alleen maar kunnen worden afgesloten of van gegevens kunnen worden beroofd als ze worden aangetast door virussen en malware, is het gevaar voor AI veel groter omdat AI kan worden geleerd zichzelf opnieuw te trainen op basis van de gegevens die het van een eindpunt ontvangt.

โ€œHet eindpunt is een REST API die gegevens verzameltโ€, zegt Dobrin. โ€œWe moeten AI beschermen tegen vergiftiging. We moeten ervoor zorgen dat AI-eindpunten veilig zijn en voortdurend worden gemonitord, niet alleen op prestaties maar ook op vooringenomenheid.โ€

Om dit te doen, zei Dobrin dat IBM bezig is met de oprichting ervan vijandige robuustheid op systeemniveau van platforms als Watson. Door AI-modellen te implementeren die andere AI-modellen ondervragen om hun besluitvormingsprocessen te verklaren, en die modellen vervolgens te corrigeren als ze afwijken van de normen, zal de onderneming in staat zijn de beveiligingsposities te handhaven op de snelheid van de snelle digitale economie van vandaag. Maar dit vereist een verschuiving in het denken, weg van het jagen en dwarsbomen van snode code naar het monitoren en beheren van de reactie van AI op wat gewone gegevens lijken.

Er beginnen al rapporten te circuleren over de vele ingenieuze manieren waarop gegevens worden gemanipuleerd om AI ertoe te verleiden de code ervan op schadelijke wijze te wijzigen. Jim Dempsey, docent aan de UC Berkeley Law School en senior adviseur bij het Stanford Cyber โ€‹โ€‹Policy Center, zegt dat het mogelijk is om audio te creรซren die voor ML-algoritmen als spraak klinkt, maar niet voor mensen. Beeldherkenningssystemen en diepe neurale netwerken kunnen op een dwaalspoor worden gebracht met verstoringen die voor het menselijk oog niet waarneembaar zijn, soms door slechts รฉรฉn enkele pixel te verschuiven. Bovendien kunnen deze aanvallen zelfs worden uitgevoerd als de dader geen toegang heeft tot het model zelf of tot de gegevens die worden gebruikt om het te trainen.

Voorkomen en reageren

Om dit tegen te gaan, moet de onderneming zich op twee dingen concentreren. Ten eerste, zegt John Roese, de wereldwijde CTO van Dell Technologiesmoet het land meer middelen besteden aan het voorkomen van en reageren op aanvallen. De meeste organisaties zijn bedreven in het detecteren van bedreigingen met behulp van AI-gestuurde diensten voor gebeurtenisinformatiebeheer of een beheerde beveiligingsdienstverlener, maar preventie en reactie zijn nog steeds te traag om een โ€‹โ€‹ernstige inbreuk adequaat te kunnen beperken.

Dit leidt tot de tweede verandering die de onderneming moet doorvoeren, zegt Corey Thomas, CEO van Rapid7: maak preventie en respons mogelijk met meer AI. Dit is voor de meeste organisaties een zware pil om te slikken, omdat het AI in wezen de ruimte geeft om wijzigingen aan te brengen in de dataomgeving. Maar Thomas zegt dat er manieren zijn om dit te doen waardoor AI kan functioneren op de aspecten van beveiliging waar het het meest bedreven in is, terwijl de belangrijkste capaciteiten voorbehouden blijven aan menselijke operators.

Uiteindelijk komt het neer op vertrouwen. AI is momenteel de nieuweling op kantoor, dus het zou niet de sleutels van de kluis moeten hebben. Maar na verloop van tijd, als het zijn waarde bewijst op instapniveau, zou het net als elke andere werknemer vertrouwen moeten winnen. Dit betekent dat je de organisatie moet belonen als ze goed presteert, haar moet leren het beter te doen als ze faalt, en er altijd voor moet zorgen dat ze over voldoende middelen en de juiste gegevens beschikt om ervoor te zorgen dat ze begrijpt wat het juiste is om te doen en wat de juiste manier is om het te doen.

De missie van VentureBeat moet een digitaal stadsplein zijn voor technische besluitvormers om kennis op te doen over transformatieve bedrijfstechnologie en transacties. Lees Meer

Bron: https://venturebeat.com/2022/02/04/can-you-trust-ai-to-protect-ai/

Tijdstempel:

Meer van AI - VentureBeat