Eetiline tehisintellekti meeskond ütleb, et kallutatavad preemiad võivad algoritmilisi vigu kiiremini paljastada

Allikasõlm: 1732021

AI-süsteemide kallutatus on osutunud suureks komistuskiviks püüdlustes laiemalt integreerida tehnoloogia meie ühiskonda. Uus algatus, mis premeerib teadlasi eelarvamuste leidmise eest Tehisintellekti süsteemid võiks aidata probleemi lahendada.

Jõupingutuste eeskujuks on veahüvitised, mida tarkvarafirmad maksavad küberjulgeolekuekspertidele, kes neid hoiatavad.f nende toodete võimalikud turvapuudused. Idee ei ole uus; "erapoolikused hüved" olid esimene ettepanek autor AMina olin teadlane ja ettevõtja JB Rubinovitz juba 2018. aastal ning mitmed organisatsioonid on selliseid väljakutseid juba ette võtnud.

Kuid uute jõupingutuste eesmärk on luua pidev foorum erapoolikuste bounty-võistluste jaoks, mis on sõltumatu mis tahes konkreetsest organisatsioonist. Koosneb mitmesuguste ettevõtete, sealhulgas Twitteri, vabatahtlikest, nn Bias Buccaneers kavatseb korraldada regulaarseid võistlusi või mässu ning algatas selle kuu alguses esimese sellise väljakutse.

"Vearahad on küberturvalisuses tavapärane praktika, mis ei ole veel leidnud alust algoritmiliste eelarvamuste kogukonnas,“ ütles orga.nizers öelda nende veebisaidil. "Kuigi esialgsed ühekordsed üritused näitasid entusiasmi preemiate vastu, on Bias Buccaneers esimene mittetulundusühing, mille eesmärk on luua jätkuvaid mässu, teha koostööd tehnoloogiaettevõtetega ning sillutada teed tehisintellektisüsteemide läbipaistvatele ja reprodutseeritavatele hindamistele."

Selle esimese võistluse eesmärk on vähendada pildituvastusalgoritmide eelarvamusi, kuid selle asemel, et panna inimesi sihtima konkreetseid tehisintellektisüsteeme, võistlus will chkutsuda teadlasi looma tööriistu, mis suudavad tuvastada kallutatud andmekogumeid. Idee on luua masinõppemudel, mis suudab andmestiku iga pildi täpselt märgistada selle nahatooni, tajutava soo ja vanuserühmaga. Konkurss lõpeb 30. novembril ja selle esimene auhind on 6,000 dollarit, teine ​​auhind 4,000 dollarit ja kolmas auhind 2,000 dollarit.

Väljakutse tuleneb tõsiasjast, et sageli ei ole algoritmilise eelarvamuse allikas mitte niivõrd algoritm ise, vaid nende andmete olemus, mille järgi seda koolitatakse. Automatiseeritud tööriistad, mis suudavad kiiresti hinnata, kui tasakaalustatud kogu on of pildid on seotud atribuutidega, mis on sageli diskrimineerimise allikad, võivad aidata tehisintellekti teadlastel vältida selgelt kallutatud andmeallikaid.

Korraldajate sõnul on see aga alles esimene samm, et luua tööriistakomplekt andmekogumite, algoritmide ja rakenduste eelarvamuste hindamiseks ning lõpuks luua standardid, kuidasl algoritmilise kallutatuse, õigluse ja seletatavusega.

See on pole ainus selline pingutus. Üks juhtidest uue algatus on Twitteri Rumman Chowdhury, kes aitas eelmisel aastal korraldada esimest tehisintellekti erapoolikuse auhinnavõistlust, sihtides algoritmi, mida platvormil kasutati piltide kärpimiseks. kasutajad kaebasid eelistas valgenahalisi ja meesnägusid mustade ja naiste nägudele.

Konkurss andis häkkeritele juurdepääsu ettevõtte mudelile ja kutsus neid üles leidma selles vigu. Sisseastujad leidnud laia valikut probleeme, sealhulgasstereotüüpselt ilusate nägude eelistamine, vastumeelsus valgete juustega inimesed (vanuse näitaja) ja meemide eelistus pigem inglise kui araabia kirjaga.

Stanfordi ülikool lõpetas hiljuti ka konkursi, mis kutsus meeskondi välja töötama tööriistu, mis aitaksid inimestel auditeerida kaubanduslikult juurutatud või avatud lähtekoodiga AI-süsteeme diskrimineerimise suhtes. Ja kehtivad ja tulevased ELi seadused võivad teha ettevõtetele kohustuslikuks oma andmete ja algoritmide regulaarse auditeerimise.

Aga võttes AI veahüvitised ja algoritmiline audit on lihtsam öelda kui teha. Paratamatult seisavad ettevõtted, kes ehitavad oma äri oma algoritmidele üles, vastu mis tahes jõupingutustele neid diskrediteerida.

Tuginedes auditisüsteemidest saadud õppetundidele teistes valdkondades, nagu rahandus ning keskkonna- ja tervishoiualased eeskirjad, teadlased hiljuti välja toodud mõned olulised koostisosad tõhusa vastutuse tagamiseks. Üks tähtsamaid kriteeriumid nad tuvastasid sõltumatute kolmandate isikute sisulise kaasamise.

Teadlased tõid välja, et praegused vabatahtlikud tehisintellekti auditid hõlmavad sageli huvide konflikte, näiteks sihtorganisatsioon, kes maksab auditi eest, aitab auditi ulatust kujundada või annab võimaluse leiud enne nende avalikustamist üle vaadata. See mure kajastus hiljutises aruandes Algorithmic Justice League, which märkis ülemõõdud sihtorganisatsioonide roll praegustes küberjulgeoleku veaprogrammides.

Tõeliselt sõltumatute tehisintellekti audiitorite ja veaküttide rahastamise ja toetamise viisi leidmine on märkimisväärne väljakutse, eriti kuna nad lähevad vastamisi mõne maailma kõige paremini rahastatud ettevõttega. Õnneks näib aga tööstuses kasvavat arusaama, et selle probleemiga tegelemine on kriitilise tähtsusega, et säilitada kasutajate usaldust nende teenuste vastu.

Image Credit: Jakob Rosen / Unsplash

Ajatempel:

Veel alates Singulaarsuse keskus