Di John P. Desmond, Redattore di AI Trends
Mercoledì l’Unione Europea ha pubblicato una proposta di regolamento che regola l’uso dell’intelligenza artificiale, un quadro giuridico unico nel suo genere chiamato legge sull’intelligenza artificiale, che delinea le pratiche accettabili e inaccettabili sull’uso della tecnologia innovativa.
La bozza di regole fisserebbe limiti all'uso dell'IA in una serie di attività, dalle auto a guida autonoma alle decisioni di assunzione, ai prestiti bancari, alle selezioni per le iscrizioni scolastiche, e il punteggio degli esami, secondo un resoconto in Il New York Times. Le norme riguarderebbero anche l'uso dell'IA da parte delle forze dell'ordine e dei sistemi giudiziari, aree considerate "ad alto rischio" per il loro potenziale impatto sulla sicurezza pubblica e sui diritti fondamentali.
Alcuni usi sarebbero vietati, come il riconoscimento facciale dal vivo negli spazi pubblici, con eccezioni per la sicurezza nazionale e altri scopi. Il bozza di proposta di 108 pagine ha implicazioni di vasta portata per le grandi aziende tecnologiche tra cui Google, Facebook, Microsoft, e Amazon, che hanno tutti investito in modo sostanziale nello sviluppo dell'IA. Decine di altre società utilizzano l'IA per sviluppare medicine, sottoscrivere polizze assicurative e solo solvibilità. I governi stanno utilizzando l'IA nella giustizia penale e per allocare servizi pubblici come il sostegno al reddito.
Le sanzioni per la violazione delle nuove normative, che probabilmente impiegheranno diversi anni per passare attraverso il processo di approvazione dell'Unione Europea, potrebbero essere soggette a sanzioni fino a 6% delle vendite globali.
"Sull'intelligenza artificiale, la fiducia è un must, non è bello avere", ha affermato Margrethe Vestager, vicepresidente esecutiva della Commissione europea che sovrintende alla politica digitale per il blocco delle 27 nazioni. "Con queste regole fondamentali, l'UE sta guidando lo sviluppo di nuove norme globali per garantire che l'IA possa essere considerata affidabile".
L'Unione Europea negli ultimi dieci anni è stata il cane da guardia più aggressivo al mondo dell'industria tecnologica, con le sue politiche che spesso sono diventate progetti per altre nazioni. Il Regolamento generale sulla protezione dei dati (GDPR), ad esempio, è entrato in vigore a maggio 2018 ed ha avuto un effetto di vasta portata come regolamento sulla privacy dei dati.
La reazione del Big Tech statunitense è in arrivo
La reazione della Silicon Valley sta appena iniziando a prendere forma.
"La domanda che ogni azienda della Silicon Valley si porrà oggi è: dovremmo rimuovere l'Europa dalle nostre mappe o no?" ha dichiarato Andre Franca, direttore della scienza dei dati applicata presso CausaLens, una startup britannica di intelligenza artificiale, in un account su Fortune.
Anu Bradford, professore di diritto alla Columbia University e autore del libro L'effetto Bruxelles, su come l'UE ha utilizzato il suo potere normativo, ha dichiarato: "Penso che ci saranno casi in cui questo sarà lo standard globale".
La Commissione non vuole che le società europee siano svantaggiate rispetto ai concorrenti statunitensi o cinesi, ma i loro membri hanno problemi con le principali società americane e cinesi che ora hanno stabilito le loro posizioni. Vedono la raccolta di enormi volumi di dati personali e il modo in cui l'IA viene utilizzata come un calpestamento dei diritti individuali e delle libertà civili che l'Europa ha cercato di proteggere, ha detto Bradford Fortuna. "Vogliono davvero avere questo impatto globale", ha dichiarato Bradford riguardo alla Commissione.
Le società tecnologiche americane ei loro rappresentanti non hanno finora parlato molto della proposta di legge sull'IA dell'UE.
L'atto è "un duro colpo per l'obiettivo della Commissione di trasformare l'UE in un leader mondiale dell'IA", ha affermato Benjamin Mueller, analista politico senior presso il Center for Data Innovation di Washington, DC, consulenti del settore finanziati indirettamente da società tecnologiche statunitensi, a Fortuna.
L'atto proposto creerebbe “un boschetto di nuove regole che lo faranno aziende del tendine del ginocchio sperando di costruire e utilizzare l'IA in Europa", ha suggerito che le aziende europee rimangano indietro.
Una strada diversa è stata presa dalla Computer & Communications Industry Association, sempre a Washington, DC, che sostiene una serie di aziende tecnologiche. "Siamo incoraggiati dall'approccio basato sul rischio dell'UE per garantire che gli europei possano fidarsi e trarranno vantaggio dalle soluzioni di intelligenza artificiale", ha affermato Christian Borggreen, vicepresidente dell'associazione, in una dichiarazione. Ha avvertito che i regolamenti avrebbero bisogno di maggiore chiarezza e che "il regolamento da solo non renderà l'UE un leader nell'IA".
Il consiglio di intelligenza artificiale supervisionerebbe l'attuazione della legge sull'IA dell'UE
La legge sull'intelligenza artificiale dell'UE propone anche un comitato europeo per l'intelligenza artificiale, composto da autorità di regolamentazione di ciascuno stato membro, nonché dal garante europeo della protezione dei dati, per supervisionare l'armonia nel modo in cui la legge viene attuata. Il consiglio, secondo Fortune, sarebbe anche responsabile di raccomandare quali casi d'uso dell'IA dovrebbero essere considerati "ad alto rischio".
Esempi di casi d'uso ad alto rischio includono: infrastrutture critiche che mettono a rischio la vita e la salute degli individui; modelli che determinano l'accesso all'istruzione o alla formazione professionale; gestione dei lavoratori; accesso a servizi finanziari come prestiti; forze dell'ordine; e migrazione e controllo delle frontiere. I modelli in quelle aree ad alto rischio dovrebbero essere sottoposti a una valutazione del rischio e adottare misure per mitigare i pericoli.
Daniel Leufer, analista politico europeo per Access Now, un'organizzazione no-profit incentrata sui diritti digitali delle persone, ha affermato in un resoconto di BBC News che la proposta di legge sull'IA è vaga in molte aree. “Come determiniamo cosa è a danno di qualcuno? E chi lo valuta?" ha dichiarato in un tweet.
Leufer ha suggerito che la legge sull'IA dovrebbe essere estesa per includere tutti i sistemi di IA del settore pubblico, qualunque sia il loro livello di rischio. “Questo perché le persone in genere non hanno scelta se interagire o meno con un sistema di intelligenza artificiale nel settore pubblico," ha dichiarato.
Herbert Swaniker, avvocato di Clifford Chance, uno studio legale internazionale con sede a Londra, ha affermato che la proposta di legge "richiederà un cambiamento fondamentale nel modo in cui l'IA è progettata" per i fornitori di prodotti e servizi di intelligenza artificiale.
I sistemi di punteggio sociale come quelli utilizzati in Cina che valutano l'affidabilità di individui e aziende sarebbero classificati come contrari ai "valori dell'Unione" e sarebbero vietati, secondo un resoconto di Politico.
Uso dell'IA da parte dei militari esentati
La proposta vieterebbe anche i sistemi di intelligenza artificiale utilizzati per la sorveglianza di massa o che causano danni alle persone manipolando il loro comportamento. I sistemi militari sarebbero esentati dall'IA Act, così come la tecnologia per combattere i crimini gravi o il riconoscimento facciale se utilizzata per trovare terroristi. Un critico ha affermato che le eccezioni rendono la proposta soggetta a molte interpretazioni.
"Dare discrezionalità alle autorità nazionali per decidere quali casi d'uso consentire o meno ricrea semplicemente le scappatoie e le aree grigie che già abbiamo ai sensi della legislazione attuale e che hanno portato a danni e abusi diffusi", ha affermato Ella Jakubowska del gruppo per i diritti digitali EDRi, in il resoconto di Politico.
Un precedente Politico l'intervista con Eric Schmidt, ex CEO di Google e presidente della Commissione per la sicurezza nazionale degli Stati Uniti sull'IA, ha preannunciato il confronto dei valori europei con le innovazioni dell'IA americana. La strategia europea, ha suggerito Schmidt, non avrà successo perché l'Europa “semplicemente non è abbastanza grande” per competere.
"L'Europa dovrà collaborare con gli Stati Uniti su queste piattaforme chiave", ha affermato Schmidt, riferendosi alle grandi aziende tecnologiche americane che dominano lo sviluppo delle tecnologie di intelligenza artificiale.
Leggi gli articoli e le informazioni di origine in Il New York Timesin Fortune,da BBC News e di Politico. Leggi il bozza di proposta della legge sull'IA dell'UE.
- accesso
- Il mio account
- attività
- AI
- casi d'uso ai
- Amazon
- americano
- analista
- in giro
- news
- intelligenza artificiale
- auto
- Bandire
- Banca
- bbc
- grande tecnologia
- Aziende di grandi tecnologie
- tavola
- sistema
- britannico
- costruire
- aziende
- auto
- casi
- Causare
- ceo
- Cina
- Cinese
- libertà civili
- Columbia
- commissione
- Comunicazioni
- Aziende
- concorrenti
- Corte
- credito
- crimine
- Azione Penale
- giustizia criminale
- Infrastruttura critica
- Corrente
- dati
- privacy dei dati
- protezione dati
- scienza dei dati
- dc
- sviluppare
- Mercato
- digitale
- diritti digitali
- Direttore
- EC
- Istruzione
- EU
- Europa
- europeo
- Commissione europea
- Unione europea
- Gli europei
- esecutivo
- Faccia
- riconoscimento facciale
- finanziario
- servizi finanziari
- Impresa
- Contesto
- finanziati
- gioco
- GDPR
- Generale
- Regolamento generale sulla protezione dei dati
- globali
- I governi
- grigio
- Armonia
- Salute e benessere
- Affitto
- sperando
- Come
- HTTPS
- Impact
- Compreso
- Reddito
- industria
- informazioni
- Infrastruttura
- Innovazione
- assicurazione
- Intelligence
- Internazionale
- sicurezza
- giustizia
- Le
- Legge
- applicazione della legge
- principale
- Guidato
- Legale
- Legislazione
- prestito
- Livello
- Prestiti e finanziamenti
- Londra
- gestione
- Maps
- Margrethe Vestager
- medicina
- Utenti
- Militare
- cambiano
- sicurezza nazionale
- New York
- senza scopo di lucro
- Altro
- partner
- Persone
- dati personali
- Piattaforme
- Termini e Condizioni
- politica
- energia
- Presidente
- Privacy
- Prodotti
- proposta
- protegge
- protezione
- la percezione
- gamma
- Regolamento
- normativa
- Regolatori
- Rischio
- valutazione del rischio
- norme
- Sicurezza
- vendite
- di moto
- Scienze
- problemi di
- Auto a guida autonoma
- auto-guida
- Servizi
- set
- spostamento
- Silicon Valley
- So
- Soluzioni
- Sponsored
- startup
- Regione / Stato
- dichiarazione
- stati
- Strategia
- di successo
- fornitori
- supporto
- sorveglianza
- sistema
- SISTEMI DI TRATTAMENTO
- Tech
- industria tecnologica
- Tecnologie
- Tecnologia
- L’ORIGINE
- Training
- tendenze
- Affidati ad
- Tweet
- unione
- Unito
- Stati Uniti
- Università
- us
- Vicepresidente
- Washington
- Che cosa è l'
- Whitepaper
- OMS
- anni