AI Weekly: il MIT mira a conciliare la condivisione dei dati con le normative dell'UE sull'IA

Nodo di origine: 826290

Unisciti a Transform 2021 dal 12 al 16 luglio. Registrati perr l'evento AI dell'anno.


Questa settimana è stata presentata l'Unione Europea (UE). normativa per governare l'uso dell'IA nei 27 stati membri del blocco. La prima proposta nel suo genere copre più di 100 pagine e richiederà anni per essere implementata, ma le ramificazioni sono di vasta portata. Impone un divieto, con alcune eccezioni, all'uso in pubblico di sistemi di identificazione biometrica, compreso il riconoscimento facciale. Altre applicazioni vietate dell'IA includono il punteggio di credito sociale, l'inflizione di danni e la manipolazione del comportamento subliminale.

Le normative sono emblematiche di un accresciuto desiderio da parte dei consumatori di implementazioni responsabili e rispettose della privacy dell'IA e dell'apprendimento automatico. UN studio di Capgemini ha scoperto che i clienti e i dipendenti ricompenseranno le organizzazioni che praticano l'IA etica con maggiore lealtà, più affari e persino la volontà di sostenerli e, a loro volta, puniranno coloro che non lo fanno. E l'87% dei dirigenti ha dichiarato a Juniper in un recente sondaggio di ritenere che le organizzazioni abbiano la responsabilità di adottare politiche che riducano al minimo gli impatti negativi dell'IA

In sintonia con la proposta dell'UE c'è un'iniziativa incentrata sulla privacy dei dati per unire la ricerca informatica all'impegno delle politiche pubbliche, annunciata anche questa settimana. Il professore del MIT Srini Devadas afferma che il MIT Future of Data, Trust, and Privacy (FOD) iniziativa, che comporterà la collaborazione tra esperti in aree tecniche specifiche, entra al centro di ciò che i regolamenti dell'UE sull'IA sperano di realizzare.

"Le aziende vorrebbero condividere legalmente i dati per eseguire analisi collaborative e i consumatori vogliono la privacy dei propri dati, posizione e immagini e vorremmo affrontare entrambi gli scenari", ha detto a VentureBeat Devadas, un co-direttore dell'iniziativa. “L'iniziativa è incentrata sulla condivisione legale, l'uso e l'elaborazione dei dati... Alcuni dei nuovi regolamenti [UE] vietano l'uso di determinate tecnologie, tranne che per motivi di sicurezza. Posso immaginare, ad esempio, che le telecamere di sorveglianza producano flussi video crittografati e che la tecnologia di riconoscimento facciale venga applicata solo in uno scenario in cui le considerazioni sulla sicurezza e la protezione sono fondamentali. Ciò potrebbe significare che i flussi crittografati vengono elaborati senza decrittografia, cosa che è effettivamente possibile con le tecnologie disponibili".

L'iniziativa nasce da un'idea di Lori Glover, amministratore delegato del MIT Computer Science and Artificial Intelligence Laboratory, e Danny Weitzner, che gestisce l'Internet Policy Research Initiative al MIT. Come spiega Devadas, l'obiettivo è integrare la ricerca sulla politica della privacy con le tecnologie di tutela della privacy per creare un circolo virtuoso di R&S e regolamentazione. "In molti campi, come la diagnostica medica e la finanza, la condivisione dei dati può produrre risultati e previsioni significativamente migliori, ma la condivisione è vietata da [leggi] come HIPAA", ha affermato Devadas. “Esistono tecniche di analisi collaborative private che possono aiutare con questo problema, ma non è sempre chiaro se tecniche o approcci particolari soddisfino le normative, perché le normative sono spesso vaghe. L'iniziativa vorrebbe affrontare questo problema".

In particolare nell'assistenza sanitaria, i consumatori spesso non sono pienamente consapevoli che le loro informazioni sono incluse nei set di dati utilizzati per addestrare i sistemi di intelligenza artificiale. Nel 2019, The Wall Street Journal ha riportato i dettagli su Project Nightingale, la partnership di Google con Ascension, che è il secondo sistema sanitario più grande d'America, che sta raccogliendo i dati sanitari personali di decine di milioni di pazienti allo scopo di sviluppare servizi basati sull'intelligenza artificiale per i fornitori di servizi sanitari. Un regolatore del Regno Unito ha concluso che il Royal Free London NHS Foundation Trust, una divisione del Servizio sanitario nazionale del Regno Unito con sede a Londra, purché DeepMind della società madre di Google Alphabet con dati su 1.6 milioni di pazienti senza il loro consenso. E nel 2019 Google e l'Università di Chicago Medical Center lo erano citato in giudizio per non aver cancellato i timestamp da cartelle cliniche anonime. (Un giudice sballottati la tuta a settembre.)

I regolamenti dell'UE impongono requisiti sulle applicazioni "ad alto rischio" dell'IA, inclusi dispositivi e apparecchiature mediche. Le aziende che li sviluppano dovranno utilizzare dati di formazione di "alta qualità" per evitare pregiudizi, accettare la "supervisione umana" e creare documentazione dettagliata che spieghi come funziona il software sia alle autorità di regolamentazione che agli utenti. Inoltre, nel tentativo di fornire trasparenza sulle tecnologie in uso, tutti i sistemi di IA ad alto rischio saranno indicizzati in una banca dati a livello dell'UE.

Devadas vede una serie di tecnologie che consentono approcci etici all'IA in linea con le normative dell'UE. Ad esempio, il calcolo sicuro con più parti può essere utilizzato per ottenere una statistica aggregata in un modo che non esponga i dati degli utenti. All'orizzonte ci sono approcci come l'hardware sicuro e la crittografia omografica, che consentono all'IA di ricavare informazioni dettagliate dai dati crittografati. Sebbene la crittografia omomorfica sia possibile oggi, è fino a 100,000 volte più lenta delle tecniche non protette. Per quanto riguarda l'hardware sicuro, spesso non è privo di vulnerabilità di sicurezza e richiede la completa fiducia nei produttori di hardware.

"Ci sono molte tecniche che sono forse vicine all'essere dispiegabili ma non del tutto disponibili", ha detto Devadas. "[Tuttavia], più progetti nell'iniziativa affronteranno direttamente questo divario di prestazioni".

Per la copertura dell'intelligenza artificiale, invia suggerimenti di notizie a Kyle Wigger - e assicurati di iscriverti al Newsletter settimanale AI e aggiungi ai segnalibri il nostro canale AI, The Machine.

Grazie per la lettura,

Kyle Wigger

Scrittore personale di intelligenza artificiale

VentureBeat

La missione di VentureBeat è quella di essere una piazza cittadina digitale per i responsabili delle decisioni tecniche per acquisire conoscenze sulla tecnologia trasformativa e sulle transazioni. Il nostro sito fornisce informazioni essenziali sulle tecnologie e strategie dei dati per guidarti mentre guidi le tue organizzazioni. Ti invitiamo a diventare un membro della nostra community, per accedere a:

  • informazioni aggiornate sugli argomenti di tuo interesse
  • le nostre newsletter
  • contenuti gated leader di pensiero e accesso scontato ai nostri eventi pregiati, come Trasforma NO: Per saperne di più
  • funzionalità di rete e altro ancora

Diventa member

Fonte: https://venturebeat.com/2021/04/23/ai-weekly-mit-aims-to-reconcile-data-sharing-with-eu-ai-regulations/

Timestamp:

Di più da VentureBeat