Euroopa loob usalduse ja omastamise suurendamiseks riskipõhiste tehisintellekti reeglite kava

Allikasõlm: 822535

Euroopa Liidu seadusandjad on esitanud oma riskipõhine ettepanek tehisintellekti kõrge riskiga rakenduste reguleerimiseks bloki ühtsel turul.

The plan includes prohibitions on a small number of use-cases that are considered too dangerous to people’s safety or EU citizens’ fundamental rights, such as a China-style social credit scoring system or certain types of AI-enabled mass surveillance.

Most uses of AI won’t face any regulation (let alone a ban) under the proposal but a subset of so-called “high risk” uses will be subject to specific regulatory requirements, both ex ante (before) and ex post (after) launching into the market.

Samuti kehtivad läbipaistvusnõuded tehisintellekti teatud kasutusjuhtudele (nt vestlusrobotid ja süvavõltsingud), mille puhul ELi seadusandjad usuvad, et potentsiaalset riski saab maandada, teavitades kasutajaid, et nad suhtlevad millegi kunstlikuga.

Kavandatav seadus on mõeldud kehtima kõikidele ettevõtetele, kes müüvad tehisintellekti toodet või teenust ELi, mitte ainult ELis asuvatele ettevõtetele ja üksikisikutele – seega, nagu ka ELi andmekaitserežiimi puhul, on see kohaldamisalalt ekstraterritoriaalne.

ELi seadusandjate üldeesmärk on suurendada üldsuse usaldust tehisintellekti rakendamise vastu, et aidata tehnoloogia kasutuselevõttu hoogustada. Komisjoni kõrgemad ametnikud räägivad soovist arendada "tipp-ökosüsteemi", mis on kooskõlas Euroopa väärtustega.

“Today, we aim to make Europe world-class in the development of a secure, trustworthy and human-centered Artificial Intelligence, and the use of it,” said Commission EVP, Margrethe Vestager, announcing adoption of the proposal at a press conference.

„Ühelt poolt käsitletakse meie määruses tehisintellekti konkreetsete kasutustega seotud inim- ja ühiskondlikke riske. Selle eesmärk on usalduse tekitamine. Teiselt poolt kirjeldab meie kooskõlastatud kava vajalikke samme, mida liikmesriigid peaksid tegema investeeringute ja innovatsiooni edendamiseks. Et tagada tipptase. Seda kõike selleks, et tugevdada tehisintellekti kasutuselevõttu kogu Euroopas. "

Ettepaneku kohaselt lisatakse tehisintellekti rakenduste kategooriale „kõrge riskiga” kohustuslikud nõuded - see tähendab neid kujutavad endast selget ohtu ohule või ähvardavad neid kahjustada ELi põhiõigused (näiteks õigus mittediskrimineerimisele).

Examples of high risk AI use-cases that will be subject to the highest level of regulation on use are set out in annex 3 of the regulation — which the Commission said it will have the power to expand by delegate acts, as use-cases of AI continue to develop and risks evolve.

Praegu viidatud kõrge riskiga näited jagunevad järgmistesse kategooriatesse: füüsiliste isikute biomeetriline identifitseerimine ja kategoriseerimine; Esmatähtsa infrastruktuuri haldamine ja haldamine; Haridus ja kutseõpe; Tööhõive, töötajate juhtimine ja juurdepääs füüsilisest isikust ettevõtjaks; Juurdepääs olulistele erateenustele ning avalikele teenustele ja hüvedele ning nende kasutamine; Korrakaitse; Rände, varjupaiga ja piirikontrolli haldamine; Õigusemõistmine ja demokraatlikud protsessid.

Tehisintellekti sõjaline kasutamine on konkreetselt reguleerimisalast välja jäetud, kuna määrus keskendub bloki siseturule.

Kõrge riskiga rakenduste loojatel on enne toote turule toomist järgida mitmeid eelkohustusi, sealhulgas nende tehisintellektide koolitamiseks kasutatavate andmekogumite kvaliteedi ja inimeste järelevalve tase mitte ainult kujundamise, vaid ka kasutamise osas. turustamisjärgse järelevalve näol.

Muud nõuded hõlmavad vajadust luua tehisintellektisüsteemi registrid, et võimaldada vastavuskontrolli ja pakkuda kasutajatele asjakohast teavet. Samuti reguleeritakse tehisintellekti süsteemi töökindlust, täpsust ja turvalisust.

Komisjoni ametnikud väitsid, et valdav osa tehisintellekti rakendustest jääb sellest rangelt reguleeritud kategooriast välja. Nende „madala riskiga” tehisintellektisüsteemide loojaid julgustatakse lihtsalt kasutusele võtma (õiguslikult mittesiduvad) käitumisjuhendid.

Tehisintellekti kasutamise juhtumite keelustamise eeskirjade rikkumise eest on määratud karistused kuni 6% ülemaailmsest aastakäibest või 30 miljonit eurot (olenevalt sellest, kumb on suurem). Ehkki kõrge riskiga rakendustega seotud reeglite rikkumine võib ulatuda kuni 4% -ni (ehk 20 miljoni euroni).

Jõustamine hõlmab mitut asutust igas ELi liikmesriigis - ettepaneku kohaselt kavatsevad järelevalvet teostada olemasolevad (asjakohased) asutused, näiteks tooteohutusasutused ja andmekaitseagentuurid.

That raises immediate questions over adequate resourcing of national bodies, given the additional work and technical complexity they will face in policing the AI rules; and also how enforcement bottlenecks will be avoided in certain Member States. (Notably, the EU’s General Data Protection Regulation is also overseen at the Member State level and has suffered from lack of uniformly vigorous enforcement.)

Samuti luuakse kogu ELi hõlmav andmebaas, et luua plokis rakendatud kõrge riskiga süsteemide register (mida haldab komisjon).

Määruse järjepideva kohaldamise toetamiseks luuakse ka uus asutus, nimega Euroopa tehisintellektinõukogu (EAIB), peegeldades Euroopa Andmekaitsenõukogu, kes pakub juhiseid GDPR-i rakendamiseks.

In step with rules on certain uses of AI, the plan includes measures to co-ordinate EU Member State support for AI development — such as by establishing regulatory sandboxes to help startups and SMEs develop and test AI-fuelled innovations — and via the prospect of targeted EU funding to support AI developers.

Internal market commissioner Thierry Breton said investment is a crucial piece of the plan.

“Under our Digital Europe and Horizon Europe program we are going to free up a billion euros per year. And on top of that we want to generate private investment and a collective EU-wide investment of €20BN per year over the coming decade — the ‘digital decade’ as we have called it,” he said. “We also want to have €140BN which will finance digital investments under Next Generation EU [COVID-19 recovery fund] — and going into AI in part.”

Tehisintellekti reeglite kujundamine on olnud ELi presidendi Ursula von der Leyeni jaoks, kes asus ametisse 2019. aasta lõpus, peamine prioriteet. Avaldati valge raamat. mullu, järgides a 2018. aasta tehisintellekt ELi strateegia jaoks - ja Vestager ütles, et tänane ettepanek on kolmeaastase töö kulminatsioon.

Breton added that providing guidance for businesses to apply AI will give them legal certainty and Europe an edge. “Trust… we think is vitally important to allow the development we want of artificial intelligence,” he said. [Applications of AI] need to be trustworthy, safe, non-discriminatory — that is absolutely crucial — but of course we also need to be able to understand how exactly these applications will work.”

„Meil on vaja juhiseid. Eriti uues tehnoloogias... Oleme, jääme esimeseks kontinentiks, kus anname juhiseid — ütleme "hei, see on roheline, see on tumeroheline, see on võib-olla natuke oranž ja see on keelatud". . Nii et kui soovite nüüd tehisintellekti rakendusi kasutada, minge Euroopasse! Sa tead, mida teha, sa tead, kuidas seda teha, sul on partnerid, kes saavad päris hästi aru ja, muide, tuled ka mandrile, kus sul on planeedil suurim hulk tööstuslikke andmeid. järgmiseks kümneks aastaks.

"Nii et tulge siia – kuna tehisintellekt on seotud andmetega –, me anname teile juhised. Meil on selleks ka tööriistad ja infrastruktuur.

Tänase ettepaneku versioon lekkis eelmisel nädalal - viib parlamendiliikmete üleskutsed plaani täiustadaNagu keelates biomeetrilise kaugseire avalikes kohtades.

Juhul kui lõplikus ettepanekus käsitletakse biomeetrilist kaugseiret tehisintellekti eriti kõrge riskiga rakendamisena - ja õiguskaitseasutused on põhimõtteliselt keelanud tehnoloogia avaliku kasutamise.

Kasutamine pole siiski täielikult keelatud, välja arvatud mitmed erandid, mille korral õiguskaitseorganid saaksid seda siiski kasutada, kehtiva õigusliku aluse ja asjakohase järelevalve all.

Kaitset rünnati kui liiga nõrka

Reactions to the Commission’s proposal included criticism of overly broad exemptions for law enforcement as well as concern that measures to address the risk of AI systems discriminating don’t go far enough.

Kriminaalõigust käsitlev valitsusväline organisatsioon Fair Trials ütles, et selleks, et määrus sisaldaks kriminaalõigusega seotud olulisi kaitsemeetmeid, on vaja radikaalseid parandusi. Kommenteerides avalduses, MTÜ õigus- ja poliitikaametnik Griff Ferris ütles: "ELi ettepanekud vajavad radikaalseid muudatusi, et vältida diskrimineerimise keerutamist kriminaalõiguse tulemustes, kaitsta süütuse presumptsiooni ja tagada tähendusrikas vastutus AI eest kriminaalõiguses. 

„Õigusaktides puuduvad igasugused kaitsemeetmed diskrimineerimise vastu, samas kui laiaulatuslik erand „avaliku julgeoleku tagamise” kohta õõnestab täielikult need väikesed kaitsemeetmed, mis on seoses kriminaalõigusega. Raamistik peab sisaldama ranged kaitsemeetmed ja piirangud, et vältida diskrimineerimist ja kaitsta õigust õiglasele kohtulikule arutamisele. See peaks hõlmama selliste süsteemide kasutamise piiramist, mis püüavad profileerida inimesi ja ennustada kuritegevuse ohtu. 

The Civil Liberties Union for Europe (Liberties) also hit out at loopholes the NGO said would allow EU Member States to get around bans on problematic uses of AI.

"Tehnoloogial on liiga palju lubatud probleemseid kasutusviise, näiteks algoritmide kasutamine kuritegevuse prognoosimiseks või piirikontrollis inimeste emotsionaalse seisundi hindamiseks arvutitega, mis mõlemad kujutavad endast tõsist ohtu inimõigustele ja kujutavad endast ohtu ELi väärtustele," hoiatas vanemadvokaat Orsolya Reich avalduses. "Oleme ka mures, et politsei võib kasutada näotuvastustehnoloogiat viisil, mis ohustab meie põhiõigusi ja -vabadusi."

Patrick Breyer, German Pirate MEP, also warned that the proposal falls short of meeting the claimed bar of respect for ‘European values’. The MEP was one of 40 who signed a letter to the Commission Eelmine nädal hoiatas siis, et ettepaneku lekkinud versioon ei läinud põhiõiguste kaitsmisel piisavalt kaugele.

„Peame kasutama võimalust lasta Euroopa Liidul viia tehisintellekt kooskõlla eetiliste nõuete ja demokraatlike väärtustega. Kahjuks ei suuda komisjoni ettepanek meid kaitsta soolise õigluse ja kõigi rühmade võrdse kohtlemise ohtude eest, näiteks näotuvastussüsteemide või muu massilise jälgimise kaudu,“ ütles Breyer täna ametlikule ettepanekule reageerides.

„Biomeetriline ja massiseire, profiilide koostamise ja käitumise ennustamise tehnoloogia meie avalikus ruumis õõnestab meie vabadust ja ohustab meie avatud ühiskondi. Euroopa Komisjoni ettepanek tooks meie inimeste enamuse tahte vastaselt automaatse näotuvastuse kõrge riskitasemega kasutamise avalikus ruumis üle terve Euroopa Liidu. Kavandatavad menetlusnõuded on pelgalt suitsukate. Me ei saa lubada teatud inimrühmade diskrimineerimist ja lugematute inimeste valesüüdistust nende tehnoloogiate abil.

Consumer rights umbrella group, BEUC, was also swiftly critical — attacking the Commission proposal as weak on consumer protection because it focuses on regulating “a very limited range of AI uses and issues”.

"Euroopa Komisjon oleks pidanud rohkem keskenduma sellele, et aidata tarbijatel oma igapäevaelus tehisintellekti usaldada," ütles Beuci peadirektor Monique Goyens avalduses: "Inimesed peaksid saama usaldada mis tahes tehisintellektil töötavat toodet või teenust, olgu see siis tegemist. 'kõrge riskiga', 'keskmise riskiga' või 'madala riskiga'. EL peab tegema rohkem, et tagada tarbijatele jõustatavad õigused, samuti juurdepääs hüvitistele ja õiguskaitsevahenditele juhuks, kui midagi läheb valesti.

Tech industry group Dot Europe (formerly Edima) — whose members include Airbnb, Apple, Facebook, Google, Microsoft and other platform giants — welcomed the release of the proposal but had yet to offer detailed remarks at the time of writing, saying it was formulating its position.

Other tech lobby groups didn’t wait to go on the attack at the prospect of red tape wrapping AI — claiming the regulation would “kneecap the EU’s nascent AI industry before it can learn to walk” as one Washington- and Brussels-based tech policy thinktank (the Center for Data Innovation) put it.

CCIA kaubandusühing hoiatas kiiresti ka "arendajate ja kasutajate jaoks ebavajaliku bürokraatia eest", lisades, et määrus üksi ei tee EL-ist liidrit AI.

Tänase ettepanekuga saab alguse rohke arutelu ELi kaasseadusandliku protsessi raames, kusjuures Euroopa Parlament ja liikmesriigid peavad EL-i nõukogu kaudu eelnõu osas oma arvamust avaldama – see tähendab, et paljugi võib muutuda enne, kui ELi institutsioonid jõuavad kokkuleppele. üleeuroopalise tehisintellekti määruse lõplik kuju.

Volinikud keeldusid andmast ajakava, millal õigusaktid võiks täna vastu võtta, öeldes vaid, et nad loodavad, et teised ELi institutsioonid sekkuvad kohe ja et protsess saaks toimuda võimalikult kiiresti. Sellegipoolest võib määruse ratifitseerimiseni ja jõustumiseni kuluda mitu aastat.

Seda aruannet ajakohastati vastusega komisjoni ettepanekule

Allikas: https://techcrunch.com/2021/04/21/europe-lays-out-plan-for-risk-based-ai-rules-to-boost-trust-and-uptake/

Ajatempel:

Veel alates Techcrunch