For å sikre inkludering må Biden-administrasjonen doble ned på AI-utviklingsinitiativer

Kilde node: 823954

Den nasjonale sikkerhetskommisjonen for kunstig intelligens (NSCAI) utstedte en rapporterer forrige måned med en ubehagelig offentlig melding: Amerika er ikke forberedt på å forsvare eller konkurrere i AI-tiden. Det fører til to nøkkelspørsmål som krever vårt umiddelbare svar: Vil USA fortsette å være en global supermakt hvis de faller bak i AI-utvikling og -distribusjon? Og hva kan vi gjøre for å endre denne banen?

Ukontrollert, tilsynelatende nøytral kunstig intelligens (AI)-verktøy kan og vil opprettholde ulikheter og i realiteten automatisere diskriminering. Teknologiske skader har allerede dukket opp i kredittbeslutninger, helsetjenesterog annonsering.

For å forhindre denne gjentakelsen og veksten i stor skala, må Biden-administrasjonen klargjøre gjeldende lover knyttet til AI og maskinlæringsmodeller - både når det gjelder hvordan vi vil evaluere bruk av private aktører og hvordan vi vil styre AI-bruk i våre offentlige systemer.

Administrasjonen har satt en sterk fot fremover, fra sentrale ansettelser i teknologiområdet til utstedelse av en Executive Order på den første dagen i kontoret som etablerte en Equitable Data Working Group. Dette har trøstet skeptikere som er bekymret både for USAs forpliktelse til AI-utvikling og for å sikre rettferdighet i det digitale rom.

Men det vil være flyktig med mindre administrasjonen viser sterk besluttsomhet i å gjøre AI-finansiering til en realitet og etablere ledere og strukturer som er nødvendige for å sikre utvikling og bruk.

Behov for klarhet i prioriteringer

Det har vært et seismisk skifte på føderalt nivå i AI-politikken og i uttalte forpliktelser til likestilling innen teknologi. En rekke høyt profilerte utnevnelser av Biden-administrasjonen – fra Dr. Alondra Nelson som nestleder for OSTP, til Tim Wu ved NEC, til (vår tidligere seniorrådgiver) Kurt Campbell ved NSC – signaliserer at det vil bli viet betydelig oppmerksomhet til inkluderende AI-utvikling av eksperter på innsiden.

De NSCAI sluttrapport inkluderer anbefalinger som kan vise seg å være avgjørende for å legge til rette for et bedre grunnlag for inkluderende AI-utvikling, for eksempel å lage nye talentpipelines gjennom en US Digital Service Academy å lære opp nåværende og fremtidige ansatte.

Rapporten anbefaler også å etablere en ny Rådet for teknologikonkurranseevne ledet av visepresidenten. Dette kan vise seg å være avgjørende for å sikre at nasjonens forpliktelse til AI-ledelse forblir en prioritet på de høyeste nivåene. Det gir god mening å ha administrasjonens ledelse på AI i spissen av VP Harris i lys av hennes strategiske partnerskap med presidenten, hennes kunnskap om teknologipolitikk og hennes fokus på borgerrettigheter.

USA må gå foran med et godt eksempel

Vi vet at AI er kraftig i sin evne til å skape effektivitet, for eksempel å pløye gjennom tusenvis av CV-er for å identifisere potensielt egnede kandidater. Men det kan også skalere diskriminering, som f.eks Amazon ansettelsesverktøy som prioriterte mannlige kandidater eller "digital redlining” av kreditt basert på rase.

Biden-administrasjonen bør utstede en Executive Order (EO) til byråer som inviterer til ideer om måter AI kan forbedre statlige operasjoner. EO bør også pålegge kontroller av AI brukt av USG for å sikre at den ikke sprer diskriminerende utfall utilsiktet.

For eksempel må det være en rutineplan på plass der AI-systemer evalueres for å sikre at innebygde, skadelige skjevheter ikke resulterer i anbefalinger som er diskriminerende eller inkonsistente med våre demokratiske, inkluderende verdier – og revurderes rutinemessig gitt at AI stadig itererer og lærer. nye mønstre.

Å få på plass et ansvarlig AI-styringssystem er spesielt viktig i den amerikanske regjeringen, som er pålagt å tilby to prosess beskyttelse når du nekter visse ytelser. For eksempel når AI brukes til å bestemme allokering av Medicaid-fordeler, og slike fordeler er modifisert eller nektet basert på en algoritme, må myndighetene kunne forklare dette resultatet, passende kalt teknologisk rettferdig prosess.

Hvis beslutninger delegeres til automatiserte systemer uten forklarbarhet, retningslinjer og menneskelig tilsyn, befinner vi oss i den uholdbare situasjonen hvor denne grunnleggende konstitusjonelle rettigheten nektes.

På samme måte har administrasjonen enorm makt til å sikre at AI-sikringer fra sentrale bedriftsaktører er på plass gjennom dens innkjøpskraft. Føderale kontraktsutgifter var forventet å overstige 600 milliarder dollar i regnskapsåret 2020, selv før de inkluderer pandemiske økonomiske stimuleringsmidler. USG kan ha en enorm innvirkning ved å utstede en sjekkliste for føderale anskaffelser av AI-systemer – dette vil sikre at regjeringens prosess er både streng og universelt brukt, inkludert relevante sivile rettighetshensyn.

Beskyttelse mot diskriminering som stammer fra AI-systemer

Regjeringen har en annen kraftig spak for å beskytte oss mot AI-skader: dens etterforsknings- og påtalemyndighet. En Executive Order som instruerer byråer til å avklare anvendeligheten av gjeldende lover og forskrifter (f.eks. ADA, Fair Housing, Fair Lending, Civil Rights Act, etc.) når avgjørelser er avhengige av AI-drevne systemer, kan resultere i et globalt oppgjør. Selskaper som opererer i USA ville ha utvilsom motivasjon til å sjekke AI-systemene deres for skader mot beskyttede klasser.

Personer med lav inntekt er uforholdsmessig sårbare for mange av de negative effektene av AI. Dette er spesielt tydelig mht kreditt og opprettelse av lån, fordi de har mindre sannsynlighet for å ha tilgang til tradisjonelle finansielle produkter eller muligheten til å oppnå høy score basert på tradisjonelle rammeverk. Dette blir da dataene som brukes til å lage AI-systemer som automatiserer slike beslutninger.

Consumer Finance Protection Bureau (CFPB) kan spille en sentral rolle i å holde finansinstitusjoner ansvarlige for diskriminerende utlånsprosesser som er et resultat av avhengighet av diskriminerende AI-systemer. Mandatet til en EO vil være en påtvingende funksjon for uttalelser om hvordan AI-aktiverte systemer vil bli evaluert, sette selskaper på varsel og bedre beskytte publikum med klare forventninger til AI-bruk.

Det er en klar vei til ansvar når en person opptrer på en diskriminerende måte og en rettferdig prosess overtredelse når en offentlig nytte nektes vilkårlig, uten forklaring. Teoretisk sett vil disse forpliktelsene og rettighetene overføres med letthet når et AI-system er involvert, men en gjennomgang av byråhandlinger og juridisk presedens (eller rettere sagt mangelen på den) indikerer noe annet.

Administrasjonen har kommet godt i gang, som å rulle tilbake en foreslått HUD-regel som ville ha gjort juridiske utfordringer mot diskriminerende kunstig intelligens i hovedsak uoppnåelige. Deretter bør føderale byråer med etterforsknings- eller påtalemyndighet avklare hvilken AI-praksis som vil falle inn under deres vurdering, og gjeldende lover vil være gjeldende – for eksempel HUD for ulovlig boligdiskriminering; CFPB på AI brukt i kredittutlån; og Department of Labor på AI brukt i avgjørelser gjort i ansettelser, evalueringer og oppsigelser.

En slik handling vil ha den ekstra fordelen av å etablere en nyttig presedens for saksøkers handlinger i klager.

Biden-administrasjonen har tatt oppmuntrende første skritt som signaliserer sin intensjon om å sikre inkluderende, mindre diskriminerende AI. Imidlertid må den sette sitt eget hus i orden ved å instruere at føderale byråer krever at utvikling, anskaffelse og bruk av AI - internt og av de den gjør forretninger med - gjøres på en måte som beskytter personvern, sivile rettigheter, sivile friheter og amerikanske verdier.

Kilde: https://techcrunch.com/2021/04/22/to-ensure-inclusivity-the-biden-administration-must-double-down-on-ai-development-initiatives/

Tidstempel:

Mer fra TechCrunch