Pentru a asigura incluziunea, administrația Biden trebuie să dubleze inițiativele de dezvoltare a inteligenței artificiale

Nodul sursă: 823954

Comisia Naţională de Securitate pentru Inteligenţă Artificială (NSCAI) a emis a raportează luna trecută livrând un mesaj public inconfortabil: America nu este pregătită să se apere sau să concureze în era AI. Conduce la două întrebări cheie care solicită răspunsul nostru imediat: Va continua SUA să fie o superputere globală dacă rămâne în urmă în dezvoltarea și implementarea AI? Și ce putem face pentru a schimba această traiectorie?

Lăsate necontrolate, instrumentele de inteligență artificială (AI) aparent neutre pot și vor perpetua inegalitățile și, de fapt, automatizează discriminarea. Daunele cauzate de tehnologie au apărut deja în deciziile de creditare, Servicii de îngrijire a sănătății, și reclamă.

Pentru a preveni această reapariție și creștere la scară, administrația Biden trebuie să clarifice legile actuale referitoare la AI și modelele de învățare automată - atât în ​​ceea ce privește modul în care vom evalua utilizarea de către actorii privați, cât și modul în care vom guverna utilizarea AI în sistemele noastre guvernamentale.

Administrația a pus un pas puternic înainte, de la numiri cheie în spațiul tehnologic până la emiterea unui Ordin executiv în prima zi de mandat care a înființat un grup de lucru pentru date echitabile. Acest lucru i-a mângâiat pe scepticii preocupați atât de angajamentul SUA față de dezvoltarea IA, cât și de asigurarea echității în spațiul digital.

Dar acest lucru va fi trecător dacă administrația nu dă dovadă de hotărâre puternică în a face din finanțarea inteligenței artificiale o realitate și în a stabili lideri și structuri necesare pentru a proteja dezvoltarea și utilizarea acesteia.

Nevoie de claritate cu privire la priorități

A existat o schimbare seismică la nivel federal în politica AI și în angajamentele declarate față de egalitatea în tehnologie. O serie de numiri de mare profil ale administrației Biden – de la Dr. Alondra Nelson ca adjunct OSTP, la Tim Wu la NEC, la (fostul nostru consilier principal) Kurt Campbell la NSC – semnalează că se va acorda o atenție semnificativă incluziunii. Dezvoltarea AI de către experți din interior.

Raportul final NSCAI include recomandări care s-ar putea dovedi esențiale pentru a permite baze mai bune pentru dezvoltarea IA incluzivă, cum ar fi crearea de noi canale de talente printr-un Academia de servicii digitale din SUA pentru a instrui angajații actuali și viitori.

Raportul recomandă, de asemenea, stabilirea unui nou Consiliul pentru Competitivitate Tehnologică condus de vicepreşedinte. Acest lucru s-ar putea dovedi esențial pentru a ne asigura că angajamentul națiunii față de conducerea AI rămâne o prioritate la cele mai înalte niveluri. Este logic să avem conducerea administrației în domeniul inteligenței artificiale în frunte cu VP Harris, în lumina parteneriatului său strategic cu președintele, ea cunoștință de politică tehnologică și concentrarea ei pe drepturile civile.

SUA trebuie să conducă prin exemplu

Știm că AI este puternică în capacitatea sa de a crea eficiențe, cum ar fi analizarea a mii de CV-uri pentru a identifica potențial candidați potriviți. Dar poate scala și discriminarea, cum ar fi Instrument de angajare Amazon care a prioritizat candidații bărbați sau „redlining digital” de credit bazat pe rasă.

Administrația Biden ar trebui să emită un ordin executiv (EO) agențiilor care invită să se gândească la modalitățile în care AI poate îmbunătăți operațiunile guvernamentale. EO ar trebui, de asemenea, să impună verificări ale IA utilizată de USG pentru a se asigura că nu răspândește rezultate discriminatorii în mod neintenționat.

De exemplu, trebuie să existe un program de rutină în care sistemele AI să fie evaluate pentru a se asigura că prejudecățile încorporate și dăunătoare nu duc la recomandări care sunt discriminatorii sau inconsecvente cu valorile noastre democratice și incluzive - și reevaluate în mod obișnuit, având în vedere că AI repetă și învață în mod constant modele noi.

Punerea în aplicare a unui sistem responsabil de guvernare a inteligenței artificiale este deosebit de critică în guvernul SUA, care trebuie să ofere două proces protecție atunci când refuzați anumite beneficii. De exemplu, când AI este folosită pentru a determina alocarea Beneficii Medicaid, iar astfel de beneficii sunt modificate sau refuzate pe baza unui algoritm, guvernul trebuie să fie capabil să explice acel rezultat, denumit corect proces tehnologic.

Dacă deciziile sunt delegate sistemelor automatizate fără explicabilitate, linii directoare și supraveghere umană, ne aflăm în situația insuportabilă în care acest drept constituțional de bază este refuzat.

De asemenea, administrația are o putere imensă de a se asigura că măsurile de protecție ale AI ale actorilor corporativi cheie sunt în vigoare prin puterea sa de achiziții. Cheltuielile contractuale federale erau de așteptat depășește 600 de miliarde de dolari în anul fiscal 2020, chiar înainte de a include fonduri de stimulare economică în caz de pandemie. USG ar putea avea un impact extraordinar prin emiterea unei liste de verificare pentru achizițiile federale de sisteme AI - acest lucru ar asigura că procesul guvernului este atât riguros, cât și aplicat universal, inclusiv considerațiile relevante privind drepturile civile.

Protecție împotriva discriminării care decurg din sistemele AI

Guvernul deține o altă pârghie puternică pentru a ne proteja de daunele AI: autoritatea sa de investigare și urmărire penală. Un ordin executiv care instruiește agențiile să clarifice aplicabilitatea legilor și reglementărilor actuale (de exemplu, ADA, locuințe echitabile, împrumuturi echitabile, Legea drepturilor civile etc.) atunci când determinările se bazează pe sistemele bazate pe inteligență artificială ar putea duce la o evaluare globală. Companiile care operează în SUA ar avea o motivație incontestabilă de a-și verifica sistemele AI pentru daune împotriva claselor protejate.

Persoanele cu venituri mici sunt vulnerabile disproporționat la multe dintre efectele negative ale IA. Acest lucru este evident mai ales în ceea ce privește credit și crearea de împrumuturi, deoarece este mai puțin probabil să aibă acces la produse financiare tradiționale sau capacitatea de a obține scoruri mari pe baza cadrelor tradiționale. Acestea devin apoi datele folosite pentru a crea sisteme AI care automatizează astfel de decizii.

Biroul pentru Protecția Finanțelor Consumatorului (CFPB) poate juca un rol esențial în tragerea la răspundere a instituțiilor financiare pentru procesele de creditare discriminatorii care rezultă din dependența de sistemele AI discriminatorii. Mandatul unui EO ar fi o funcție de forțare pentru declarații cu privire la modul în care vor fi evaluate sistemele activate de IA, punând companiile la cunoștință și protejând mai bine publicul cu așteptări clare cu privire la utilizarea AI.

Există o cale clară către răspundere atunci când o persoană acționează într-un mod discriminatoriu și un proces echitabil încălcare atunci când un folos public este refuzat în mod arbitrar, fără explicații. Teoretic, aceste datorii și drepturi s-ar transfera cu ușurință atunci când este implicat un sistem AI, dar o revizuire a acțiunii agenției și a precedentului legal (sau mai degrabă, lipsa acestora) indică contrariul.

Administrația a început bine, cum ar fi retragerea a regula HUD propusă care ar fi făcut ca contestațiile juridice împotriva inteligenței artificiale discriminatorii să fie practic de neatins. În continuare, agențiile federale cu autoritate de investigare sau de urmărire penală ar trebui să clarifice care practici de IA ar intra sub control și legile actuale ar fi aplicabile - de exemplu, HUD pentru discriminarea ilegală a locuințelor; CFPB privind IA utilizată în creditarea; și Departamentul Muncii cu privire la IA utilizate în determinările făcute în angajare, evaluări și rezilieri.

O astfel de acțiune ar avea avantajul suplimentar de a stabili un precedent util pentru acțiunile reclamanților în plângeri.

Administrația Biden a făcut primii pași încurajatori, semnalând intenția sa de a asigura o IA incluzivă și mai puțin discriminatorie. Cu toate acestea, trebuie să-și facă ordine în propria casă, indicând ca agențiile federale să solicite ca dezvoltarea, achiziția și utilizarea IA – pe plan intern și de către cei cu care face afaceri – să se facă într-o manieră care să protejeze viața privată, drepturile civile, libertățile civile și valorile americane.

Sursa: https://techcrunch.com/2021/04/22/to-ensure-inclusivity-the-biden-administration-must-double-down-on-ai-development-initiatives/

Timestamp-ul:

Mai mult de la TechCrunch