L'Europa definisce un piano per regole di intelligenza artificiale basate sul rischio per aumentare la fiducia e la diffusione

Nodo di origine: 822535

I legislatori dell'Unione Europea hanno presentato la loro proposta basata sul rischio per regolare le applicazioni ad alto rischio dell'intelligenza artificiale all'interno del mercato unico del blocco.

Il piano include divieti su un numero limitato di casi d’uso considerati troppo pericolosi per la sicurezza delle persone o per i diritti fondamentali dei cittadini dell’UE, come un sistema di punteggio del credito sociale in stile cinese o alcuni tipi di sorveglianza di massa abilitata all’intelligenza artificiale.

La maggior parte degli usi dell’IA non saranno soggetti ad alcuna regolamentazione (per non parlare di un divieto) ai sensi della proposta, ma un sottoinsieme dei cosiddetti usi “ad alto rischio” sarà soggetto a specifici requisiti normativi, sia ex ante (prima) che ex post (dopo ) lancio sul mercato.

Esistono anche requisiti di trasparenza per alcuni casi d'uso dell'intelligenza artificiale, come chatbot e deepfake, in cui i legislatori dell'UE ritengono che il rischio potenziale possa essere mitigato informando gli utenti che stanno interagendo con qualcosa di artificiale.

La legge prevista dovrebbe applicarsi a qualsiasi azienda che venda un prodotto o servizio di intelligenza artificiale nell'UE, non solo a società e individui con sede nell'UE, quindi, come per il regime di protezione dei dati dell'UE, avrà una portata extraterritoriale.

L'obiettivo generale per i legislatori dell'UE è promuovere la fiducia del pubblico nel modo in cui l'IA viene implementata per contribuire a promuovere l'adozione della tecnologia. Gli alti funzionari della Commissione parlano di voler sviluppare un "ecosistema di eccellenza" in linea con i valori europei.

“Oggi miriamo a rendere l’Europa all’avanguardia nello sviluppo di un’intelligenza artificiale sicura, affidabile e incentrata sull’uomo, e nel suo utilizzo”, ha affermato il vicepresidente della Commissione, Margrethe Vestager, annunciando l’adozione della proposta in una conferenza stampa.

“Da un lato, il nostro regolamento affronta i rischi umani e sociali associati a usi specifici dell'IA. Questo per creare fiducia. D'altro canto, il nostro piano coordinato delinea le misure necessarie che gli Stati membri dovrebbero adottare per stimolare gli investimenti e l'innovazione. Per garantire l'eccellenza. Tutto questo per garantire il rafforzamento dell'adozione dell'IA in tutta Europa".

In base alla proposta, i requisiti obbligatori sono associati a una categoria di applicazioni di IA ad "alto rischio", ovvero quelle che presentare un chiaro rischio per la sicurezza o minacciare di interferire Diritti fondamentali dell'UE (come il diritto alla non discriminazione).

Esempi di casi d'uso dell'IA ad alto rischio che saranno soggetti al più alto livello di regolamentazione sull'uso sono riportati nell'allegato 3 del regolamento, che la Commissione ha affermato che avrà il potere di ampliare mediante atti delegati, come casi d'uso di L’intelligenza artificiale continua a svilupparsi e i rischi si evolvono.

Per ora gli esempi ad alto rischio citati rientrano nelle seguenti categorie: identificazione biometrica e categorizzazione delle persone fisiche; Gestione e funzionamento di infrastrutture critiche; Istruzione e formazione professionale; Occupazione, gestione dei lavoratori e accesso al lavoro autonomo; Accesso e fruizione dei servizi privati ​​essenziali e dei servizi e benefici pubblici; Applicazione della legge; Migrazione, asilo e gestione del controllo delle frontiere; Amministrazione della giustizia e processi democratici.

Gli usi militari dell'IA sono specificamente esclusi dal campo di applicazione poiché il regolamento è incentrato sul mercato interno del blocco.

I creatori di applicazioni ad alto rischio avranno una serie di obblighi ex ante da rispettare prima di portare il loro prodotto sul mercato, anche per quanto riguarda la qualità dei set di dati utilizzati per addestrare le loro IA e un livello di supervisione umana non solo sulla progettazione ma anche sull'uso del sistema — così come i requisiti ex post in corso, sotto forma di sorveglianza post-commercializzazione.

Altri requisiti includono la necessità di creare registri del sistema di IA per consentire i controlli di conformità e anche per fornire informazioni pertinenti agli utenti. Anche la solidità, l'accuratezza e la sicurezza del sistema di IA saranno soggette a regolamentazione.

I funzionari della Commissione hanno suggerito che la stragrande maggioranza delle applicazioni dell'IA rientrerà al di fuori di questa categoria altamente regolamentata. I creatori di questi sistemi di IA "a basso rischio" saranno semplicemente incoraggiati ad adottare codici di condotta (non legalmente vincolanti) sull'uso.

Le sanzioni per la violazione delle norme sui divieti di specifici casi d'uso dell'IA sono state fissate fino al 6% del fatturato annuo globale o a 30 milioni di euro (a seconda di quale sia il maggiore). Mentre le violazioni delle regole relative alle applicazioni ad alto rischio possono aumentare fino al 4% (o 20 milioni di euro).

L'applicazione coinvolgerà più agenzie in ogni Stato membro dell'UE, con la proposta che prevede che la supervisione sia effettuata dalle agenzie (pertinenti) esistenti, come gli organismi per la sicurezza dei prodotti e le agenzie per la protezione dei dati.

Ciò solleva domande immediate sull’adeguatezza delle risorse degli organismi nazionali, dato il lavoro aggiuntivo e la complessità tecnica che dovranno affrontare nel controllo delle norme sull’IA; e anche come si eviteranno gli ostacoli all'attuazione in alcuni Stati membri. (In particolare, il regolamento generale sulla protezione dei dati dell’UE è supervisionato anche a livello di Stato membro e ha sofferto della mancanza di un’applicazione uniforme e vigorosa.)

Sarà inoltre istituito un database a livello di UE per creare un registro dei sistemi ad alto rischio implementati nel blocco (che sarà gestito dalla Commissione).

Sarà inoltre istituito un nuovo organismo, denominato Comitato europeo per l'intelligenza artificiale (EAIB), per supportare un'applicazione coerente del regolamento, in modo speculare al Comitato europeo per la protezione dei dati che offre indicazioni per l'applicazione del GDPR.

In linea con le norme su determinati usi dell’intelligenza artificiale, il piano prevede misure per coordinare il sostegno degli Stati membri dell’UE allo sviluppo dell’intelligenza artificiale, ad esempio creando sandbox normativi per aiutare le startup e le PMI a sviluppare e testare innovazioni alimentate dall’intelligenza artificiale, e attraverso la prospettiva di finanziamenti mirati dell’UE per sostenere gli sviluppatori di intelligenza artificiale.

Il commissario per il mercato interno Thierry Breton ha affermato che gli investimenti sono un elemento cruciale del piano.

“Con i nostri programmi Europa Digitale e Orizzonte Europa libereremo un miliardo di euro all’anno. E oltre a ciò, vogliamo generare investimenti privati ​​e un investimento collettivo a livello europeo di 20 miliardi di euro all’anno nel prossimo decennio – il “decennio digitale”, come lo abbiamo chiamato”, ha affermato. “Vogliamo anche avere 140 miliardi di euro che finanzieranno gli investimenti digitali nell’ambito di Next Generation EU [fondo per la ripresa COVID-19] – e in parte destinati all’intelligenza artificiale”.

La definizione delle regole per l'IA è stata una priorità fondamentale per la presidente dell'UE Ursula von der Leyen, che ha assunto il suo incarico alla fine del 2019. È stato pubblicato un libro bianco l'anno scorso, seguendo a 2018 AI per la strategia dell'UE - e Vestager ha affermato che la proposta odierna è il culmine di tre anni di lavoro.

Breton ha aggiunto che fornire indicazioni alle imprese sull’applicazione dell’intelligenza artificiale darà loro certezza giuridica e un vantaggio per l’Europa. “La fiducia… riteniamo che sia di vitale importanza per consentire lo sviluppo che desideriamo dell’intelligenza artificiale”, ha affermato. [Le applicazioni dell’intelligenza artificiale] devono essere affidabili, sicure e non discriminatorie – questo è assolutamente cruciale – ma ovviamente dobbiamo anche essere in grado di capire come funzioneranno esattamente queste applicazioni”.

“Ciò di cui abbiamo bisogno è avere una guida. Soprattutto in una nuova tecnologia... Siamo, saremo, il primo continente in cui daremo linee guida - diremo "ehi, questo è verde, questo è verde scuro, questo è forse un po' arancione e questo è proibito" . Quindi ora se vuoi utilizzare applicazioni di intelligenza artificiale, vai in Europa! Saprai cosa fare, saprai come farlo, avrai partner che capiscono abbastanza bene e, tra l'altro, verrai anche nel continente dove avrai la più grande quantità di dati industriali creati sul pianeta per i prossimi dieci anni.

“Quindi vieni qui – perché l'intelligenza artificiale riguarda i dati – ti daremo le linee guida. Avremo anche gli strumenti per farlo e le infrastrutture”.

Una versione della proposta di oggi trapelato la scorsa settimana — che porta a chiede ai deputati di rafforzare il piano, come vietando la sorveglianza biometrica remota nei luoghi pubblici.

Nel caso in cui la proposta finale consideri la sorveglianza biometrica remota come un'applicazione particolarmente ad alto rischio dell'IA - e vi è un divieto in linea di principio sull'uso della tecnologia in pubblico da parte delle forze dell'ordine.

Tuttavia l'uso non è completamente vietato, con una serie di eccezioni in cui le forze dell'ordine potrebbero ancora farne uso, fatte salve una base giuridica valida e un'adeguata supervisione.

Protezioni attaccate perché troppo deboli

Le reazioni alla proposta della Commissione includevano critiche nei confronti di esenzioni eccessivamente ampie per le forze dell’ordine, nonché la preoccupazione che le misure per affrontare il rischio di discriminazione dei sistemi di intelligenza artificiale non siano sufficientemente efficaci.

La ONG per la giustizia penale, Fair Trials, ha affermato che sono necessari miglioramenti radicali se il regolamento deve contenere garanzie significative in relazione alla giustizia penale. Commentando in una dichiarazione, Griff Ferris, responsabile legale e politico della ONG, ha dichiarato: “Le proposte dell'UE necessitano di modifiche radicali per prevenire l'impianto discriminatorio nei risultati della giustizia penale, proteggere la presunzione di innocenza e garantire responsabilità significativa per l'IA nella giustizia penale. 

“La legislazione è priva di qualsiasi salvaguardia contro la discriminazione, mentre l'ampia esenzione per la 'salvaguardia della sicurezza pubblica' riduce completamente le poche garanzie esistenti in relazione alla giustizia penale. Il quadro deve includere tutele e restrizioni rigorose per prevenire la discriminazione e tutelare il diritto a un processo equo. Ciò dovrebbe includere la limitazione dell'uso di sistemi che tentano di profilare le persone e prevedere il rischio di criminalità". 

Anche l’Unione delle libertà civili per l’Europa (Liberties) ha colto le lacune che, secondo la ONG, consentirebbero agli Stati membri dell’UE di aggirare i divieti sugli usi problematici dell’intelligenza artificiale.

"Ci sono troppi usi problematici della tecnologia che sono consentiti, come l'uso di algoritmi per prevedere il crimine o per fare in modo che i computer valutino lo stato emotivo delle persone al controllo delle frontiere, entrambi costituiscono seri rischi per i diritti umani e rappresentano una minaccia ai valori dell'UE", ha avvertito Orsolya Reich, alto funzionario di advocacy, in una dichiarazione. "Siamo anche preoccupati che la polizia possa utilizzare la tecnologia di riconoscimento facciale in modi che mettono in pericolo i nostri diritti e le nostre libertà fondamentali".

Anche Patrick Breyer, eurodeputato pirata tedesco, ha avvertito che la proposta non riesce a soddisfare il preteso livello di rispetto dei “valori europei”. L'eurodeputato è stato uno dei 40 che hanno firmato una lettera alla Commissione la settimana scorsa avvertendo poi che una versione trapelata della proposta non è andata abbastanza lontano nella protezione dei diritti fondamentali.

“Dobbiamo cogliere l'opportunità di consentire all'Unione europea di portare l'intelligenza artificiale in linea con i requisiti etici e i valori democratici. Sfortunatamente, la proposta della Commissione non riesce a proteggerci dai pericoli della giustizia di genere e della parità di trattamento di tutti i gruppi, come attraverso i sistemi di riconoscimento facciale o altri tipi di sorveglianza di massa", ha affermato Breyer in una dichiarazione in risposta alla proposta formale di oggi.

“La tecnologia di sorveglianza biometrica e di massa, profilazione e previsione comportamentale nei nostri spazi pubblici mina la nostra libertà e minaccia le nostre società aperte. La proposta della Commissione europea porterebbe l'uso ad alto rischio del riconoscimento facciale automatico negli spazi pubblici all'intera Unione europea, contrariamente alla volontà della maggioranza della nostra gente. I requisiti procedurali proposti sono una mera cortina fumogena. Non possiamo permettere la discriminazione di determinati gruppi di persone e la falsa incriminazione di innumerevoli individui da parte di queste tecnologie”

Anche il gruppo ombrello per i diritti dei consumatori, BEUC, è stato rapidamente critico, attaccando la proposta della Commissione in quanto debole sulla protezione dei consumatori perché si concentra sulla regolamentazione di “una gamma molto limitata di usi e problemi dell’IA”.

"La Commissione europea avrebbe dovuto concentrarsi maggiormente sull'aiutare i consumatori a fidarsi dell'intelligenza artificiale nella loro vita quotidiana", ha affermato Monique Goyens, direttore generale di Beuc, in una dichiarazione: "Le persone dovrebbero potersi fidare di qualsiasi prodotto o servizio alimentato dall'intelligenza artificiale, sia esso "rischio alto", "rischio medio" o "rischio basso". L'UE deve fare di più per garantire ai consumatori diritti applicabili, nonché l'accesso a mezzi di ricorso e rimedi in caso qualcosa vada storto".

Il gruppo industriale tecnologico Dot Europe (ex Edima) – i cui membri includono Airbnb, Apple, Facebook, Google, Microsoft e altri giganti delle piattaforme – ha accolto con favore il rilascio della proposta ma non ha ancora offerto osservazioni dettagliate al momento della stesura di questo articolo, affermando che stava formulando la sua posizione.

Altri gruppi di lobby tecnologici non hanno aspettato di passare all'attacco alla prospettiva della burocrazia che avvolge l'IA, sostenendo che il regolamento " avrebbe messo in ginocchio la nascente industria dell'intelligenza artificiale dell'UE prima che possa imparare a camminare", come una politica tecnologica con sede a Washington e Bruxelles. lo ha affermato il thinktank (il Center for Data Innovation).

L'associazione di categoria CCIA ha anche rapidamente messo in guardia contro "l'inutile burocrazia per sviluppatori e utenti", aggiungendolo regolamento da sola non farà dell'UE un leader in AI.

La proposta odierna dà il via a un ampio dibattito nell'ambito del processo colegislativo dell'UE, con il Parlamento europeo e gli Stati membri tramite il Consiglio dell'UE che devono esprimere la loro opinione sulla bozza, il che significa che molte cose potrebbero cambiare prima che le istituzioni dell'UE raggiungano un accordo sulla forma finale di un regolamento sull'IA pan-UE.

I commissari si sono rifiutati di fornire una tempistica entro cui la legislazione potrebbe essere adottata oggi, affermando solo che sperano che le altre istituzioni dell'UE si impegnino immediatamente e che il processo possa essere svolto al più presto. Potrebbero tuttavia passare diversi anni prima che il regolamento venga ratificato ed entri in vigore.

Questa relazione è stata aggiornata con le reazioni alla proposta della Commissione

Fonte: https://techcrunch.com/2021/04/21/europe-lays-out-plan-for-risk-based-ai-rules-to-boost-trust-and-uptake/

Timestamp:

Di più da Techcrunch