Euroopan unionin lainsäätäjät, jotka laativat tekoälyn soveltamista koskevia sääntöjä, harkitsevat jopa 4 prosentin sakkoja maailmanlaajuisesta vuotuisesta liikevaihdosta (tai 20 miljoonaa euroa, jos suurempi) kielletyistä käyttötapauksista. vuotanut luonnos tekoälyasetuksen säännöistä – raportoinut aiemmin Poliittinen – sen odotetaan julkistettavan virallisesti ensi viikolla.
Suunnitelma tekoälyn sääntelemisestä on ollut käsillä jo jonkin aikaa. Takaisin helmikuu 2020 Euroopan komissio julkaisi valkoisen kirjan, jossa hahmotellaan suunnitelmia tekoälyn niin sanottujen "korkean riskin" sovellusten sääntelemiseksi.
Tuolloin EU:n lainsäätäjät leikkivät alakohtaisella painotuksella – he pitivät tiettyjä aloja, kuten energiaa ja rekrytointia, riskien levittäjiksi. Tämä lähestymistapa näyttää kuitenkin harkitun uudelleen vuotaneen luonnoksen mukaan – mikä ei rajoita tekoälyriskistä keskustelua tiettyihin toimialoihin tai sektoreihin.
Sen sijaan painopiste on korkean riskin tekoälysovellusten vaatimustenmukaisuusvaatimuksissa riippumatta siitä, missä niitä esiintyy (aseet/sotilaallinen käyttö on kuitenkin erikseen suljettu pois, koska tällaiset käyttötapaukset eivät kuulu EU:n perussopimusten soveltamisalaan). Vaikka tästä luonnoksesta ei käy täysin selväksi, kuinka "suuri riski" määritellään.
Komission yleistavoite tässä on lisätä yleisön luottamusta tekoälyyn "EU-arvoihin" upotetun vaatimustenmukaisuuden tarkastus- ja tasapainojärjestelmän avulla, jotta edistettäisiin niin sanotun "luotettavan" ja "ihmiskeskeisen" tekoälyn käyttöönottoa. Joten jopa sellaisten tekoälysovellusten valmistajia, joita ei pidetä "korkean riskin", rohkaistaan edelleen hyväksymään käytännesääntöjä - "edistääkseen korkean riskin tekoälyjärjestelmiin sovellettavien pakollisten vaatimusten vapaaehtoista soveltamista", kuten komissio esittää.
Toinen osa asetuksesta koskee toimenpiteitä, joilla tuetaan tekoälyn kehitystä lohkossa – pakottaa jäsenvaltiot luomaan sääntelyn sandboxing-järjestelmiä, joissa startup- ja pk-yritykset voivat saada tukea tekoälyjärjestelmien kehittämiseen ja testaamiseen ennen niiden tuomista markkinoille.
Toimivaltaisilla viranomaisilla "on valtuudet käyttää harkintavaltaansa ja suhteellisuuskeinojaan hiekkalaatikkoon osallistuvien tahojen tekoälyprojekteissa säilyttäen samalla täysin viranomaisten valvonta- ja korjaamisvaltuudet", luonnoksessa todetaan.
Mikä on korkean riskin tekoäly?
Suunniteltujen sääntöjen mukaan tekoälyä soveltavien tahojen on määritettävä, onko tietty käyttötapaus "suuri riski" ja näin ollen, onko heidän tehtävä pakollinen, ennen markkinoille saattamista edeltävä vaatimustenmukaisuuden arviointi vai ei.
"Tekoälyjärjestelmän luokittelun riskialttiiksi tulisi perustua sen käyttötarkoitukseen, johon tekoälyjärjestelmä on tarkoitettu, mukaan lukien erityinen konteksti ja käyttöolosuhteet, ja - ja se on määritettävä kahdessa vaiheessa: pohtia, voiko se aiheuttaa tiettyjä haittoja, ja jos voi, mahdollisen haitan vakavuus ja sattumisen todennäköisyys”, todetaan luonnoksen eräässä perustelukappaleessa.
"Tekoälyjärjestelmän luokittelu suuren riskin omaavaksi tässä asetuksessa ei välttämättä tarkoita, että järjestelmää sellaisenaan tai tuotetta kokonaisuudessaan pidettäisiin välttämättä "suuren riskin" alakohtaisen lainsäädännön kriteerien mukaan. ”teksti myös tarkentaa.
Esimerkkejä riskialttiisiin tekoälyjärjestelmiin liittyvistä "vahingoista" luetellaan luonnoksessa seuraavasti: "henkilön loukkaantuminen tai kuolema, omaisuusvahingot, systeemiset haitalliset vaikutukset koko yhteiskuntaan, merkittävät häiriöt keskeisten palvelujen tarjoamisessa kriittisen taloudellisen ja yhteiskunnallisen toiminnan tavanomainen harjoittaminen, kielteinen vaikutus henkilöiden taloudellisiin, koulutus- tai ammatillisiin mahdollisuuksiin, kielteinen vaikutus julkisten palvelujen ja kaikenlaisen julkisen avun saatavuuteen ja kielteinen vaikutus [eurooppalaisiin] perusoikeuksiin.
Myös useita esimerkkejä suuren riskin sovelluksista käsitellään – mukaan lukien rekrytointijärjestelmät; järjestelmät, jotka tarjoavat pääsyn koulutus- tai ammatillisiin oppilaitoksiin; hätäpalvelun lähetysjärjestelmät; luottokelpoisuuden arviointi; järjestelmät, jotka liittyvät veronmaksajien rahoittamien etuuksien jakamisen määrittämiseen; rikosten ehkäisemiseen, paljastamiseen ja syytteeseenpanoon liittyvät päätöksentekojärjestelmät; ja tuomareiden avustamiseen käytetyt päätöksentekojärjestelmät.
Niin kauan kuin vaatimustenmukaisuusvaatimukset – kuten riskinhallintajärjestelmän perustaminen ja markkinoille saattamisen jälkeinen valvonta, myös laadunhallintajärjestelmän kautta – täyttyvät, tällaisia järjestelmiä ei suljeta EU:n markkinoilta lainsäädäntösuunnitelman mukaan.
Muita vaatimuksia ovat turvallisuuden alalla ja se, että tekoäly saavuttaa suoritustarkkuuden johdonmukaisuuden – velvoitteen mukaan raportoida valvontaviranomaiselle "vakavista vaaratilanteista tai tekoälyjärjestelmän toimintahäiriöistä, jotka muodostavat velvoitteiden rikkomisen" 15 päivän kuluttua siitä, kun hän sai tiedon siitä.
"Korkean riskin tekoälyjärjestelmiä voidaan saattaa unionin markkinoille tai muuten ottaa käyttöön pakollisten vaatimusten täyttyessä", tekstissä todetaan.
”Unionin markkinoille saatettavia tai muuten käyttöön otettuja korkean riskin tekoälyjärjestelmiä koskevia pakollisia vaatimuksia olisi noudatettava tekoälyjärjestelmän käyttötarkoitus huomioon ottaen ja palveluntarjoajan laatiman riskinhallintajärjestelmän mukaisesti.
"Tarjoajan määrittelemien riskinhallintatoimenpiteiden tulee muun muassa perustua pakollisten vaatimusten yhdistetystä soveltamisesta aiheutuvien vaikutusten ja mahdollisten vuorovaikutusten asianmukaiseen huomioimiseen ja ottaa huomioon yleisesti tunnustettu tekniikan taso, mukaan lukien asiaa koskevissa yhdenmukaistetuissa standardeissa tai yhteisissä eritelmissä."
Kielletyt käytännöt ja biometriset tiedot
Tietyt tekoälyn "käytännöt" on tämän vuotaneen luonnoksen mukaan lueteltu kiellettyiksi suunnitellun lain artiklan 4 mukaan – mukaan lukien (kaupalliset) massavalvontajärjestelmien sovellukset ja yleiskäyttöiset sosiaaliset pisteytysjärjestelmät, jotka voivat johtaa syrjintään.
Tekoälyjärjestelmät, jotka on suunniteltu manipuloimaan ihmisten käyttäytymistä, päätöksiä tai mielipiteitä haitallisesti (esimerkiksi tummakuvioisten käyttöliittymien avulla), on myös lueteltu 4 artiklan mukaan kiellettyiksi. samoin kuin järjestelmät, jotka käyttävät henkilötietoja luodakseen ennusteita (haitallisesti) kohdistaakseen henkilöiden tai ihmisryhmien haavoittuvuuksia.
Satunnainen lukija voi olettaa, että asetus ehdottaa ihmisten seurantaan perustuvan käyttäytymismainonnan kaltaisten käytäntöjen kieltämistä heti – eli Facebookin ja Googlen kaltaisten yritysten liiketoimintamalleihin. Tämä kuitenkin edellyttää, että adtech-jätit hyväksyvät, että heidän työkaluilla on haitallinen vaikutus käyttäjiin.
Päinvastoin, heidän sääntelyn kiertämisstrategiansa perustuu väittämään päinvastaista; tästä syystä Facebook puhuu "olennaisista" mainoksista. Joten teksti (sellaisena kuin se on kirjoitettu) näyttää olevan resepti (vielä) pitkittyneemmille oikeudellisille taisteluille, jotta EU-lainsäädäntö yritettäisiin pysyä teknologiajättiläisten oman edun mukaisten tulkintojen kanssa.
Kiellettyjen käytäntöjen perustelut on tiivistetty luonnoksen aikaisemmassa perustelukappaleessa, jossa todetaan: "Tulisi tunnustaa, että tekoäly voi mahdollistaa uusia manipulatiivisia, riippuvuutta aiheuttavia, sosiaalisia kontrolleja ja mielivaltaisia valvontakäytäntöjä, jotka ovat erityisen haitallisia ja jotka tulisi kieltää ihmisarvon, vapauden, demokratian, oikeusvaltion ja ihmisoikeuksien kunnioittamisen unionin arvojen vastaisia.
On huomionarvoista, että komissio on välttynyt ehdottamasta kasvojentunnistuksen käytön kieltämistä julkisilla paikoilla – kuten se oli ilmeisesti harkinnut vuotaneen luonnoksen vuoksi. viime vuoden alussa, ennen kuin viime vuoden valkoinen kirja ohjattiin pois kiellosta.
Vuotaneessa luonnoksessa "biometrinen etätunnistus" julkisilla paikoilla on eritelty "tiukempien vaatimustenmukaisuuden arviointimenettelyjen osalta, kun ilmoitetun laitoksen osallistuminen on" eli "lupamenettelyä, joka käsittelee tekniikan käyttöön liittyvät erityiset riskit" ja sisältää pakollinen tietosuojavaikutusten arviointi – verrattuna useimpiin muihin korkean riskin tekoälyn sovelluksiin (jotka voivat täyttää vaatimukset itsearvioinnin kautta).
"Lisäksi lupaviranomaisen tulisi arvioinnissaan ottaa huomioon tiettyyn tarkoitukseen käytetyn järjestelmän epätarkkuuksien aiheuttamien haittojen todennäköisyys ja vakavuus erityisesti iän, etnisen alkuperän, sukupuolen tai vammaisuuden osalta", esitetään luonnoksessa. "Sen pitäisi ottaa edelleen huomioon yhteiskunnalliset vaikutukset, ottaen huomioon erityisesti demokraattinen ja kansalaisten osallistuminen, sekä metodologia, tarpeellisuus ja suhteellisuus henkilöiden sisällyttämiselle viitetietokantaan."
Tekoälyjärjestelmien, "jotka voivat ensisijaisesti johtaa haitallisiin vaikutuksiin henkilökohtaiseen turvallisuuteen", on myös läpäistävä tämä korkeampi sääntelyn osa osana vaatimustenmukaisuusprosessia.
Suunniteltu vaatimustenmukaisuuden arviointijärjestelmä kaikille korkean riskin tekoälyille on meneillään, ja luonnoksessa todetaan: "On asianmukaista, että tekoälyjärjestelmälle tehdään uusi vaatimustenmukaisuuden arviointi aina, kun tapahtuu muutos, joka voi vaikuttaa järjestelmän yhteensopivuuteen tämän asetuksen kanssa tai kun järjestelmän tarkoitus muuttuu."
"Tekoälyjärjestelmille, jotka jatkavat "oppimista" sen jälkeen, kun ne on saatettu markkinoille tai otettu käyttöön (eli ne mukautuvat automaattisesti toimintojen suorittamiseen), algoritmissa ja suorituskyvyssä tehdään muutoksia, joita ei ole ennalta määritetty ja arvioitu ostohetkellä. vaatimustenmukaisuuden arvioinnin tuloksena on uusi vaatimustenmukaisuus
tekoälyjärjestelmän arviointi”, se lisää.
Vaatimustenmukaisten yritysten porkkana on saada näkyviin CE-merkki, joka auttaa niitä voittamaan käyttäjien luottamuksen ja kitkattoman pääsyn lohkon sisämarkkinoille.
"Korkean riskin tekoälyjärjestelmissä olisi oltava CE-merkintä, joka osoittaa, että ne ovat tämän asetuksen mukaisia, jotta ne voivat liikkua vapaasti unionin sisällä", tekstissä todetaan ja lisätään, että "Jäsenvaltiot eivät saa luoda esteitä markkinoille saattamiselle tai ottaa käyttöön tekoälyjärjestelmiä, jotka täyttävät tässä asetuksessa säädetyt vaatimukset."
Avoimuus boteille ja syväväärennöksille
Sen lisäksi, että yritetään kieltää jotkin käytännöt ja luoda EU:n laajuinen sääntöjärjestelmä "korkean riskin" tekoälyjärjestelmien tuomiseksi markkinoille turvallisesti – ja palveluntarjoajien odotetaan tekevän (useimmiten itse) arviointeja ja täyttävän vaatimustenmukaisuusvelvoitteet (kuten palvelun laatuun liittyvät velvoitteet). mallin kouluttamiseen käytetyt tietojoukot; kirjanpito/dokumentaatio; inhimillinen valvonta; avoimuus; tarkkuus) ennen tällaisen tuotteen markkinoille saattamista ja jatkuvaa markkinoille saattamisen jälkeistä valvontaa – ehdotetulla asetuksella pyritään vähentämään tekoälyn riskiä. tapana huijata ihmisiä.
Se tekee tämän ehdottamalla "yhdenmukaistettuja läpinäkyvyyssääntöjä" tekoälyjärjestelmille, jotka on tarkoitettu vuorovaikutukseen luonnollisten henkilöiden kanssa (alias puheälykäyttäjillä/chat-botteilla jne.); ja tekoälyjärjestelmille, joita käytetään luomaan tai manipuloimaan kuva-, ääni- tai videosisältöä (alias deepfake).
"Tietyt tekoälyjärjestelmät, jotka on tarkoitettu vuorovaikutukseen luonnollisten henkilöiden kanssa tai sisällön tuottamiseen, voivat sisältää erityisiä toisena henkilönä esiintymisen tai petoksen riskejä riippumatta siitä, luokitellaanko ne suuren riskin vai ei. Tietyissä olosuhteissa näiden järjestelmien käyttöön olisi siksi sovellettava erityisiä avoimuusvelvoitteita, sanotun kuitenkaan rajoittamatta korkean riskin tekoälyjärjestelmien vaatimuksia ja velvoitteita”, tekstissä todetaan.
”Erityisesti luonnollisille henkilöille tulee ilmoittaa, että he ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa, ellei tämä ole ilmeistä olosuhteista ja käyttökontekstista. Lisäksi käyttäjien, jotka käyttävät tekoälyjärjestelmää luomaan tai manipuloimaan kuva-, ääni- tai videosisältöä, joka huomattavasti muistuttaa olemassa olevia henkilöitä, paikkoja tai tapahtumia ja joka järkevän henkilön mielestä virheellisesti näyttäisi olevan aito, tulee paljastaa, että sisältö on luotu keinotekoisesti tai manipuloidaan merkitsemällä tekoälyn tuotos vastaavasti ja paljastamalla sen keinotekoinen alkuperä.
"Tätä merkintävelvollisuutta ei pitäisi soveltaa, jos tällaisen sisällön käyttö on välttämätöntä yleisen turvallisuuden takaamiseksi tai henkilön laillisen oikeuden tai vapauden käyttämiseksi, kuten satiirin, parodian tai taiteen ja tieteen vapauden kannalta, ja jos asianmukaisia takeita kolmansien osapuolten oikeuksille ja vapauksille."
Entä täytäntöönpano?
Vaikka komissio ei ole vielä virallisesti julkistanut ehdotettua tekoälyjärjestelmää – joten yksityiskohdat saattavat vielä muuttua ennen ensi viikkoa – herää suuri kysymysmerkki siitä, kuinka voidaan saada aikaan kokonaan uusi vaatimustenmukaisuustaso (usein monimutkaisen) tekoälyn tietyissä sovelluksissa. valvoa tehokkaasti ja kaikki rikkomukset pannaan täytäntöön, erityisesti kun otetaan huomioon jatkuvat puutteet EU:n tietosuojajärjestelmän täytäntöönpanossa (jota alettiin soveltaa vuonna 2018).
Vaikka suuren riskin tekoälyjärjestelmien tarjoajien on otettava vastuu järjestelmiensä saattamisesta markkinoille (ja siten kaikkien eri määräysten noudattamisesta, joihin sisältyy myös korkean riskin tekoälyjärjestelmien rekisteröinti EU:n tietokantaan, jota komissio aikoo ylläpitää) , ehdotus jättää täytäntöönpanon jäsenvaltioiden käsiin, jotka ovat vastuussa yhden tai useamman kansallisen toimivaltaisen viranomaisen nimeämisestä valvomaan valvontajärjestelmän soveltamista.
Olemme nähneet, kuinka tämä tarina toimii yleisen tietosuoja-asetuksen kanssa. Komissio itse on myöntänyt GDPR-valvontaa ei sovelleta johdonmukaisesti tai voimakkaasti koko blokissa - joten suuri kysymys on, kuinka nämä aloittelevat tekoälysäännöt välttävät saman foorumiostosten kohtalo?
"Jäsenvaltioiden olisi toteutettava kaikki tarvittavat toimenpiteet sen varmistamiseksi, että tämän asetuksen säännökset pannaan täytäntöön, mukaan lukien niiden rikkomisesta määrättävä tehokkaita, oikeasuhteisia ja varoittavia seuraamuksia. Tiettyjen erityisten rikkomusten osalta jäsenvaltioiden olisi otettava huomioon tässä asetuksessa vahvistetut marginaalit ja kriteerit”, esitetään luonnoksessa.
Komissio lisää varoituksen – mahdollisesta puuttumisesta asiaan, jos jäsenvaltion täytäntöönpano ei toimi. Mutta ei ole lähiajan todennäköisyyttä erilaisesta lähestymistavasta täytäntöönpanoon, mikä viittaa siihen, että samat vanhat sudenkuopat tulevat todennäköisesti esiin.
”Koska tämän asetuksen tavoitetta eli luottamuksen ekosysteemin edellytysten luomista tekoälyn markkinoille saattamisen, käyttöönoton ja käytön osalta unionissa, jäsenvaltiot eivät voi saavuttaa riittävällä tavalla, vaan se voidaan pikemminkin syistä saavuttaa. Jotta toiminnan laajuus tai vaikutukset voidaan saavuttaa paremmin unionin tasolla, unioni voi toteuttaa toimenpiteitä Euroopan unionista tehdyn sopimuksen 5 artiklassa vahvistetun toissijaisuusperiaatteen mukaisesti”, on komission tukipylväs. tuleva täytäntöönpanon epäonnistuminen.
Tekoälyn valvontasuunnitelmaan sisältyy GDPR:n Euroopan tietosuojalautakuntaa muistuttavan peiliyksikön – nimeltään Euroopan tekoälylautakunta – perustaminen, joka samoin tukee asetuksen soveltamista antamalla asiaankuuluvia suosituksia ja lausuntoja EU:n lainsäätäjille, kuten n. luettelo kielletyistä tekoälykäytännöistä ja korkean riskin järjestelmistä.
- pääsy
- Tili
- Toiminta
- toiminta
- mainokset
- mainonta
- AI
- AI-asetus
- algoritmi
- jako
- Hakemus
- sovellukset
- ALUE
- noin
- Art
- artikkeli
- tekoäly
- Arts
- audio-
- Aito
- Kielto
- hallitus
- botit
- rikkominen
- liiketoiminta
- yritykset
- kuljettaa
- Aiheuttaa
- aiheutti
- muuttaa
- Tarkastukset
- Kansalais-
- luokittelu
- kaupallinen
- provision
- Yhteinen
- Yritykset
- noudattaminen
- pitoisuus
- jatkaa
- Luominen
- Rikollisuus
- tiedot
- tietosuoja
- tietokanta
- Tarjoukset
- deepfakes
- Demokratia
- Malli
- Detection
- kehittää
- Kehitys
- syrjintä
- Lähettäminen
- Taloudellinen
- ekosysteemi
- koulutus-
- Tehokas
- energia
- jne.
- EU
- Eurooppalainen
- Euroopan komissio
- Euroopan unioni
- tapahtuma
- Tapahtumat
- Käyttää
- kasvot
- Epäonnistuminen
- taloudellinen
- Keskittää
- muoto
- Vapaus
- tulevaisuutta
- general
- Yleinen tietosuojadirektiivi
- Global
- tätä
- Korkea
- Miten
- HTTPS
- ihmisoikeudet
- kuva
- Vaikutus
- Mukaan lukien
- sisällyttäminen
- teollisuuden
- laitokset
- Älykkyys
- osallistuva
- IT
- suuri
- Laki
- lainsäätäjät
- johtaa
- juridinen
- lainsäädäntö
- Taso
- Lista
- Pitkät
- merkittävä
- johto
- Merkitse
- markkinat
- peili
- malli
- liikkua
- nimittäin
- Lähellä
- Lausunnot
- tilata
- Muut
- Paperi
- Kuvio
- Ihmiset
- suorituskyky
- henkilökohtaiset tiedot
- Ennusteet
- Ehkäisy
- Tuotteet
- hankkeet
- omaisuus
- ehdotus
- suojaus
- julkinen
- laatu
- lukija
- resepti
- rekrytointi
- Asetus
- raportti
- vaatimukset
- Riski
- riskienhallinta
- säännöt
- hiekkalaatikko
- satiiri
- Asteikko
- tieteet
- sektorit
- turvallisuus
- Palvelut
- setti
- asetus
- sukupuoli
- Pk-yritysten
- So
- sosiaalinen
- yhteiskunta
- standardit
- Startups
- Osavaltio
- Valtiot
- Strategia
- tuki
- valvonta
- järjestelmä
- järjestelmät
- Kohde
- teknologia
- testi
- kolmannet osapuolet
- aika
- Seuranta
- koulutus
- Läpinäkyvyys
- Luottamus
- liitto
- Käytä koteloita
- Käyttäjät
- Video
- Ääni
- haavoittuvuuksia
- viikko
- valkoinen paperi
- KUKA
- voittaa
- sisällä