Európa meghatározza a kockázatalapú mesterséges intelligencia-szabályok tervét a bizalom és az elterjedtség fokozása érdekében

Forrás csomópont: 822535

Az Európai Unió törvényhozói bemutatták saját magukat kockázatalapú javaslat a mesterséges intelligencia magas kockázatú alkalmazásainak szabályozására a blokk egységes piacán.

The plan includes prohibitions on a small number of use-cases that are considered too dangerous to people’s safety or EU citizens’ fundamental rights, such as a China-style social credit scoring system or certain types of AI-enabled mass surveillance.

Most uses of AI won’t face any regulation (let alone a ban) under the proposal but a subset of so-called “high risk” uses will be subject to specific regulatory requirements, both ex ante (before) and ex post (after) launching into the market.

Átláthatósági követelmények is vonatkoznak a mesterséges intelligencia bizonyos felhasználási eseteire – például a chatbotokra és a mélyhamisításokra –, ahol az uniós jogalkotók úgy vélik, hogy a potenciális kockázat csökkenthető, ha tájékoztatják a felhasználókat arról, hogy valamilyen mesterséges kölcsönhatást folytatnak.

A tervezett törvény minden olyan vállalatra vonatkozik, amely mesterségesintelligencia-terméket vagy -szolgáltatást értékesít az EU-ban, nem csak az EU-beli székhelyű cégekre és magánszemélyekre – így az EU adatvédelmi rendszeréhez hasonlóan a hatálya is területen kívüli lesz.

Az uniós jogalkotók átfogó célja az, hogy elősegítsék a közvélemény bizalmát a mesterséges intelligencia megvalósítása iránt, ezzel is elősegítve a technológia elterjedését. A Bizottság vezető tisztviselői arról beszélnek, hogy olyan „kiválósági ökoszisztémát” szeretnének kialakítani, amely igazodik az európai értékekhez.

“Today, we aim to make Europe world-class in the development of a secure, trustworthy and human-centered Artificial Intelligence, and the use of it,” said Commission EVP, Margrethe Vestager, announcing adoption of the proposal at a press conference.

„Egyrészt a rendeletünk foglalkozik a mesterséges intelligencia meghatározott felhasználásaihoz kapcsolódó emberi és társadalmi kockázatokkal. Ez a bizalom megteremtése. Másrészt összehangolt tervünk felvázolja azokat a szükséges lépéseket, amelyeket a tagállamoknak meg kell tenniük a beruházások és az innováció fellendítése érdekében. A kiválóság garantálására. Mindezt azért, hogy megerősítsük a mesterséges intelligencia elterjedését Európában.”

A javaslat szerint a kötelező követelmények a mesterséges intelligencia alkalmazásainak „magas kockázatú” kategóriájához kapcsolódnak – vagyis azokhoz, amelyek egyértelmű biztonsági kockázatot jelentenek, vagy ütközéssel fenyegetnek EU alapvető jogok (mint például a megkülönböztetésmentességhez való jog).

Examples of high risk AI use-cases that will be subject to the highest level of regulation on use are set out in annex 3 of the regulation — which the Commission said it will have the power to expand by delegate acts, as use-cases of AI continue to develop and risks evolve.

A most idézett magas kockázatú példák a következő kategóriákba sorolhatók: Természetes személyek biometrikus azonosítása és kategorizálása; Kritikus infrastruktúra kezelése és üzemeltetése; Oktatás és szakképzés; Foglalkoztatás, munkavállalók irányítása és az önfoglalkoztatáshoz való hozzáférés; Hozzáférés az alapvető magánszolgáltatásokhoz és közszolgáltatásokhoz és előnyökhöz, valamint ezek élvezete; Bűnüldözés; Migráció, menekültügy és határellenőrzés kezelése; Az igazságszolgáltatás és a demokratikus folyamatok.

A mesterséges intelligencia katonai felhasználása kifejezetten ki van zárva a hatálya alól, mivel a rendelet a blokk belső piacára összpontosít.

A nagy kockázatú alkalmazások gyártóinak egy sor előzetes kötelezettséget kell teljesíteniük, mielőtt terméküket piacra dobnák, ideértve a mesterséges intelligencia képzésére használt adatkészletek minőségét és az emberi felügyelet szintjét, nemcsak a tervezést, hanem a felhasználást is. a rendszer – valamint a folyamatos, utólagos követelmények, a forgalomba hozatalt követő felügyelet formájában.

Az egyéb követelmények közé tartozik a mesterséges intelligencia rendszer rekordjainak létrehozása a megfelelőségi ellenőrzések lehetővé tétele és a felhasználók számára releváns információk biztosítása érdekében. Az AI-rendszer robusztussága, pontossága és biztonsága szintén szabályozás alá esik.

A Bizottság tisztviselői szerint a mesterséges intelligencia alkalmazásainak túlnyomó többsége kívül esik ezen a szigorúan szabályozott kategórián. Az „alacsony kockázatú” mesterséges intelligencia-rendszerek gyártóit csupán arra ösztönzik, hogy (jogilag nem kötelező erejű) magatartási kódexeket fogadjanak el a használat során.

A speciális mesterségesintelligencia-használati tilalmakra vonatkozó szabályok megsértéséért a szankciókat a globális éves forgalom 6%-áig vagy 30 millió euróig (amelyik nagyobb) határozták meg. Míg a magas kockázatú alkalmazásokkal kapcsolatos szabályok megsértése akár 4%-ot (vagy 20 millió eurót) is elérhet.

A végrehajtás minden EU-tagállamban több ügynökséget fog érinteni – a javaslat szerint a felügyeletet a meglévő (releváns) ügynökségek, például a termékbiztonsági testületek és az adatvédelmi ügynökségek végeznék.

That raises immediate questions over adequate resourcing of national bodies, given the additional work and technical complexity they will face in policing the AI rules; and also how enforcement bottlenecks will be avoided in certain Member States. (Notably, the EU’s General Data Protection Regulation is also overseen at the Member State level and has suffered from lack of uniformly vigorous enforcement.)

Az egész EU-ra kiterjedő adatbázist is létrehoznak, hogy létrehozzák a blokkban bevezetett magas kockázatú rendszerek nyilvántartását (amelyet a Bizottság kezel majd).

Egy új testület, az Európai Mesterséges Intelligencia Testület (EAIB) is létrejön a rendelet következetes alkalmazásának támogatására – az Európai Adatvédelmi Testület tükrében, amely útmutatást ad a GDPR alkalmazásához.

In step with rules on certain uses of AI, the plan includes measures to co-ordinate EU Member State support for AI development — such as by establishing regulatory sandboxes to help startups and SMEs develop and test AI-fuelled innovations — and via the prospect of targeted EU funding to support AI developers.

Internal market commissioner Thierry Breton said investment is a crucial piece of the plan.

“Under our Digital Europe and Horizon Europe program we are going to free up a billion euros per year. And on top of that we want to generate private investment and a collective EU-wide investment of €20BN per year over the coming decade — the ‘digital decade’ as we have called it,” he said. “We also want to have €140BN which will finance digital investments under Next Generation EU [COVID-19 recovery fund] — and going into AI in part.”

A mesterséges intelligencia szabályainak kialakítása kulcsfontosságú prioritás volt Ursula von der Leyen EU-elnöknek, aki 2019 végén lépett hivatalba. Fehér könyvet tettek közzé. tavaly, követve a 2018. évi mesterséges intelligencia az EU stratégiájához – Vestager pedig azt mondta, hogy a mai javaslat három éves munka csúcspontja.

Breton added that providing guidance for businesses to apply AI will give them legal certainty and Europe an edge. “Trust… we think is vitally important to allow the development we want of artificial intelligence,” he said. [Applications of AI] need to be trustworthy, safe, non-discriminatory — that is absolutely crucial — but of course we also need to be able to understand how exactly these applications will work.”

„Amire szükségünk van, az az útmutatás. Főleg egy új technológiában… Mi vagyunk, leszünk az első kontinens, ahol útmutatást adunk – azt mondjuk, hogy „hé, ez zöld, ez sötétzöld, ez talán egy kicsit narancssárga, és ez tilos”. . Tehát most, ha mesterséges intelligencia alkalmazásokat szeretne használni, menjen Európába! Tudni fogod, mit kell csinálni, tudni fogod, hogyan kell csinálni, olyan partnereid lesznek, akik elég jól értenek, és mellesleg arra a kontinensre is eljutsz, ahol a bolygón a legnagyobb mennyiségű ipari adat keletkezik majd. a következő tíz évre.

„Tehát gyere ide – mivel a mesterséges intelligencia az adatokról szól –, mi megadjuk az iránymutatásokat. Meglesznek az ehhez szükséges eszközök és infrastruktúra is.”

A mai javaslat egy változata a múlt héten szivárgott ki - v.hová vezet felszólítja a képviselőket, hogy erősítsék meg a tervet, Mint például a a távbiometrikus megfigyelés nyilvános helyeken történő betiltásával.

Abban az esetben, ha a végső javaslat a távoli biometrikus megfigyelést a mesterséges intelligencia különösen nagy kockázatú alkalmazásaként kezeli – és alapvetően tiltja a technológia bűnüldöző szervek általi nyilvános használatát.

A felhasználás azonban nincs teljesen tiltva, néhány kivétellel, ahol a bűnüldözés továbbra is élhetne, érvényes jogalap és megfelelő felügyelet mellett.

A védelem túl gyengeként támadt

Reactions to the Commission’s proposal included criticism of overly broad exemptions for law enforcement as well as concern that measures to address the risk of AI systems discriminating don’t go far enough.

A Fair Trials, a büntető igazságszolgáltatással foglalkozó civil szervezet szerint radikális fejlesztésekre van szükség, ha a szabályozás érdemi biztosítékokat kíván tartalmazni a büntető igazságszolgáltatással kapcsolatban. Egy közleményben kommentálva, Griff Ferris, a civil szervezet jogi és politikai tisztje a következőket mondta:Az EU javaslatai radikális változtatásokat igényelnek annak érdekében, hogy megakadályozzák a büntető igazságszolgáltatás kimenetelében a diszkrimináció behálózását, megvédjék az ártatlanság vélelmét és biztosítsák érdemi elszámoltathatóság a mesterséges intelligenciaért a büntető igazságszolgáltatásban. 

„A jogszabályból hiányoznak a diszkrimináció elleni biztosítékok, míg a „közbiztonság védelmére” vonatkozó széles körű mentesség teljesen aláássa a büntető igazságszolgáltatással kapcsolatos csekély biztosítékokat. A keretnek tartalmaznia kell szigorú biztosítékok és korlátozások a megkülönböztetés megelőzése és a tisztességes eljáráshoz való jog védelme érdekében. Ennek magában kell foglalnia azoknak a rendszereknek a korlátozását, amelyek megkísérlik profilozni az embereket és előre jelezni a bűnözés kockázatát.” 

The Civil Liberties Union for Europe (Liberties) also hit out at loopholes the NGO said would allow EU Member States to get around bans on problematic uses of AI.

„Túl sok a megengedett technológia problémás felhasználása, mint például az algoritmusok használata a bűnözés előrejelzésére vagy a számítógépek a határellenőrzésen tartózkodó emberek érzelmi állapotának felmérésére, mindkettő komoly emberi jogi kockázatot jelent és fenyegetést jelent. az EU értékeire” – figyelmeztetett közleményében Reich Orsolya vezető jogvédő. "Aggódunk attól is, hogy a rendőrség olyan módon használhatja az arcfelismerő technológiát, amely veszélyezteti alapvető jogainkat és szabadságainkat."

Patrick Breyer, German Pirate MEP, also warned that the proposal falls short of meeting the claimed bar of respect for ‘European values’. The MEP was one of 40 who signed a letter to the Commission a múlt héten figyelmeztetett, hogy a javaslat kiszivárgott változata nem ment elég messzire az alapvető jogok védelmében.

„Meg kell ragadnunk a lehetőséget, hogy az Európai Unió a mesterséges intelligenciát az etikai követelményekkel és a demokratikus értékekkel összhangba hozza. Sajnos a Bizottság javaslata nem véd meg minket a nemek közötti igazságosság és az összes csoport egyenlő bánásmódjának veszélyeitől, például arcfelismerő rendszereken vagy más tömeges megfigyelés útján” – mondta Breyer a hivatalos javaslatra reagáló közleményében.

„A biometrikus és tömeges megfigyelési, profilalkotási és viselkedés-előrejelzési technológia nyilvános tereinken aláássa szabadságunkat és fenyegeti nyitott társadalmainkat. Az Európai Bizottság javaslata népünk többségének akaratával ellentétben az egész Európai Unióra hozná az automatikus arcfelismerés nagy kockázatú használatát a közterületeken. A javasolt eljárási követelmények puszta füstöt jelentenek. Nem engedhetjük meg bizonyos embercsoportok megkülönböztetését és számtalan egyén hamis vádaskodását ezekkel a technológiákkal.”

Consumer rights umbrella group, BEUC, was also swiftly critical — attacking the Commission proposal as weak on consumer protection because it focuses on regulating “a very limited range of AI uses and issues”.

"Az Európai Bizottságnak nagyobb hangsúlyt kellett volna helyeznie arra, hogy segítse a fogyasztókat abban, hogy bízzanak a mesterséges intelligenciában a mindennapi életükben" - mondta Monique Goyens, Beuc főigazgatója nyilatkozatában: "Az embereknek képesnek kell lenniük megbízni minden mesterséges intelligenciával működő termékben vagy szolgáltatásban, legyen az az. „magas kockázatú”, „közepes kockázatú” vagy „alacsony kockázatú”. Az EU-nak többet kell tennie annak biztosítása érdekében, hogy a fogyasztók érvényesíthető jogokkal rendelkezzenek, valamint jogorvoslathoz és jogorvoslathoz juthassanak arra az esetre, ha valami rosszul sülne el.”

Tech industry group Dot Europe (formerly Edima) — whose members include Airbnb, Apple, Facebook, Google, Microsoft and other platform giants — welcomed the release of the proposal but had yet to offer detailed remarks at the time of writing, saying it was formulating its position.

Other tech lobby groups didn’t wait to go on the attack at the prospect of red tape wrapping AI — claiming the regulation would “kneecap the EU’s nascent AI industry before it can learn to walk” as one Washington- and Brussels-based tech policy thinktank (the Center for Data Innovation) put it.

A CCIA kereskedelmi szövetsége szintén gyorsan figyelmeztetett a „fejlesztők és felhasználók szükségtelen bürokráciájára”, hozzátéve, hogy szabályozás önmagában még nem lesz az EU vezető szerepe AI.

A mai javaslat rengeteg vita kezdetét veszi az EU társjogalkotói folyamata során, és az Európai Parlamentnek és az EU Tanácsán keresztül a tagállamoknak ki kell mondaniuk véleményüket a tervezetről – ami azt jelenti, hogy sok minden változhat, mielőtt az uniós intézmények megállapodásra jutnának a tervezetről. egy pán-EU-rendelet végleges formája.

A biztosok nem voltak hajlandóak megadni a jogszabályok ma elfogadásának időpontját, csak annyit mondtak, hogy abban reménykednek, hogy a többi uniós intézmény azonnal részt vesz, és a folyamat mielőbb megtörténhet. Ennek ellenére több évbe telhet, mire a rendelet ratifikálják és hatályba lépnek.

Ezt a jelentést frissítették a bizottsági javaslatra adott reakciókkal

Forrás: https://techcrunch.com/2021/04/21/europe-lays-out-plan-for-risk-based-ai-rules-to-boost-trust-and-uptake/

Időbélyeg:

Még több TechCrunch