Puoi fidarti dell'IA per proteggere l'IA?

Nodo di origine: 1884060

Unisciti ai principali dirigenti di oggi online al Data Summit il 9 marzo. Registrati qui.


Ora che l’intelligenza artificiale sta diventando parte integrante dell’architettura IT, è iniziata la corsa per garantire che rimanga sicura quando esposta a fonti di dati che sfuggono al controllo dell’azienda. Dal data center al cloud fino all’edge, l’intelligenza artificiale dovrà fare i conti con un’ampia varietà di vulnerabilità e una serie sempre più complessa di minacce, quasi tutte guidate dall’intelligenza artificiale stessa.

Nel frattempo, la posta in gioco sarà sempre più alta, dato che l’intelligenza artificiale costituirà probabilmente la spina dorsale della nostra sanità, dei trasporti, della finanza e di altri settori cruciali per sostenere il nostro stile di vita moderno. Pertanto, prima che le organizzazioni inizino a spingere troppo in profondità l’intelligenza artificiale in queste architetture distribuite, potrebbe essere utile fermarsi un attimo per garantire che possa essere adeguatamente protetta.

Fiducia e trasparenza

In una recente intervista con VentureBeat, Seth Dobrin, capo dell'intelligenza artificiale di IBM notato quell'edificio fiducia e trasparenza nell’intera catena dei dati dell’IA è cruciale se l’impresa spera di trarre il massimo valore dal proprio investimento. A differenza delle architetture tradizionali che possono semplicemente essere chiuse o derubate dei dati quando compromesse da virus e malware, il pericolo per l’intelligenza artificiale è molto maggiore perché è possibile insegnarle a riqualificarsi dai dati che riceve da un endpoint.

"L'endpoint è un'API REST che raccoglie dati", ha affermato Dobrin. “Dobbiamo proteggere l’IA dall’avvelenamento. Dobbiamo assicurarci che gli endpoint IA siano sicuri e costantemente monitorati, non solo per quanto riguarda le prestazioni ma anche per i bias”.

Per fare questo, Dobrin ha detto che IBM sta lavorando per stabilire robustezza contraddittoria a livello di sistema di piattaforme come Watson. Implementando modelli di intelligenza artificiale che interrogano altri modelli di intelligenza artificiale per spiegare i loro processi decisionali e quindi correggono tali modelli se si discostano dalle norme, l’azienda sarà in grado di mantenere posizioni di sicurezza alla velocità della frenetica economia digitale di oggi. Ma ciò richiede uno spostamento del modo di pensare dalla ricerca e dal contrasto di codici dannosi al monitoraggio e alla gestione della reazione dell’intelligenza artificiale a quelli che sembrano essere dati ordinari.

Stanno già iniziando a circolare rapporti sui molti modi ingegnosi in cui i dati vengono manipolati per ingannare l’intelligenza artificiale e indurla ad alterare il suo codice in modi dannosi. Jim Dempsey, docente presso la UC Berkeley Law School e consulente senior dello Stanford Cyber ​​Policy Center, afferma che è possibile creare audio che suoni come un parlato per gli algoritmi ML ma non per gli esseri umani. I sistemi di riconoscimento delle immagini e le reti neurali profonde possono essere fuorviati con perturbazioni impercettibili all’occhio umano, a volte semplicemente spostando un singolo pixel. Inoltre, questi attacchi possono essere lanciati anche se l’autore del reato non ha accesso al modello stesso o ai dati utilizzati per addestrarlo.

Prevenire e rispondere

Per contrastare questo fenomeno, l’impresa deve concentrarsi su due cose. Innanzitutto, dice John Roese, CTO globale di Dell Technologies, deve dedicare maggiori risorse alla prevenzione e alla risposta agli attacchi. La maggior parte delle organizzazioni è in grado di rilevare le minacce utilizzando servizi di gestione delle informazioni sugli eventi basati sull’intelligenza artificiale o un fornitore di servizi di sicurezza gestiti, ma la prevenzione e la risposta sono ancora troppo lente per fornire un’adeguata mitigazione di una violazione grave.

Ciò porta al secondo cambiamento che l’impresa deve attuare, afferma Il CEO di Rapid7 Corey Thomas: potenziare la prevenzione e la risposta con più intelligenza artificiale. Questa è una pillola difficile da digerire per la maggior parte delle organizzazioni perché essenzialmente offre all’intelligenza artificiale un margine di manovra per apportare modifiche all’ambiente dei dati. Ma Thomas afferma che ci sono modi per farlo che consentono all’intelligenza artificiale di funzionare sugli aspetti della sicurezza che è più abile a gestire, riservando capacità chiave agli operatori umani.

Alla fine, si tratta di fiducia. L’intelligenza artificiale è la nuova arrivata in ufficio in questo momento, quindi non dovrebbe avere le chiavi del caveau. Ma col tempo, man mano che dimostra il suo valore in contesti entry-level, dovrebbe guadagnarsi la fiducia proprio come qualsiasi altro dipendente. Ciò significa premiarlo quando funziona bene, insegnargli a fare meglio quando fallisce e assicurarsi sempre che disponga di risorse adeguate e di dati adeguati per garantire che comprenda la cosa giusta da fare e il modo giusto per farlo.

La missione di VentureBeat deve essere una piazza cittadina digitale per i decisori tecnici per acquisire conoscenze sulla tecnologia aziendale trasformativa e le transazioni. Scopri di più

Fonte: https://venturebeat.com/2022/02/04/can-you-trust-ai-to-protect-ai/

Timestamp:

Di più da AI - VentureBeat