For at sikre inklusivitet skal Biden-administrationen fordoble AI-udviklingsinitiativer

Kildeknude: 823954

National Security Commission on Artificial Intelligence (NSCAI) udstedte en indberette sidste måned leverede en ubehagelig offentlig besked: Amerika er ikke parat til at forsvare eller konkurrere i AI-æraen. Det fører til to nøglespørgsmål, der kræver vores øjeblikkelige svar: Vil USA fortsætte med at være en global supermagt, hvis det kommer bagud i AI-udvikling og -implementering? Og hvad kan vi gøre for at ændre denne bane?

Venstre ukontrollerede, tilsyneladende neutrale kunstig intelligens (AI) værktøjer kan og vil fastholde uligheder og i realiteten automatisere diskrimination. Teknologiske skader er allerede dukket op i kreditbeslutninger, sundhedsydelserog reklame.

For at forhindre denne gentagelse og vækst i stor skala skal Biden-administrationen afklare gældende love vedrørende AI og maskinlæringsmodeller - både med hensyn til, hvordan vi vil evaluere brugen af ​​private aktører, og hvordan vi vil styre brugen af ​​AI i vores offentlige systemer.

Administrationen har sat en stærk fod frem, fra nøgleudnævnelser i teknologiområdet til udstedelse af en Bekendtgørelse på den første dag i embedet, der etablerede en Equitable Data Working Group. Dette har trøstet skeptikere, der er bekymrede både over USA's engagement i AI-udvikling og for at sikre lighed i det digitale rum.

Men det vil være flygtigt, medmindre administrationen viser stærk beslutsomhed i at gøre AI-finansiering til en realitet og etablere ledere og strukturer, der er nødvendige for at sikre dens udvikling og brug.

Behov for klarhed om prioriteringer

Der har været et seismisk skift på føderalt niveau i AI-politikken og i erklærede forpligtelser til ligestilling inden for teknologi. En række højt profilerede udnævnelser fra Biden-administrationen - fra Dr. Alondra Nelson som stedfortræder for OSTP, til Tim Wu ved NEC, til (vores tidligere seniorrådgiver) Kurt Campbell ved NSC - signalerer, at der vil blive lagt stor vægt på inklusivitet. AI-udvikling af eksperter på indersiden.

NSCAI's endelige rapport indeholder anbefalinger, der kan vise sig at være afgørende for at skabe bedre grundlag for inklusiv AI-udvikling, såsom at skabe nye talentpipelines gennem en US Digital Service Academy at uddanne nuværende og fremtidige medarbejdere.

Rapporten anbefaler også at etablere en ny Rådet for teknologikonkurrenceevne ledet af næstformanden. Dette kan vise sig at være afgørende for at sikre, at nationens engagement i AI-ledelse forbliver en prioritet på højeste niveau. Det giver god mening at have administrationens ledelse på AI i spidsen af ​​VP Harris i lyset af hendes strategiske partnerskab med præsidenten, hendes teknisk-politisk kyndige og hendes fokus på borgerrettigheder.

USA skal gå foran med et godt eksempel

Vi ved, at AI er stærk i sin evne til at skabe effektivitet, såsom at pløje gennem tusindvis af CV'er for at identificere potentielt egnede kandidater. Men det kan også skalere diskrimination, som f.eks Amazon ansættelsesværktøj der prioriterede mandlige kandidater eller "digital redlining” af kredit baseret på race.

Biden-administrationen bør udstede en bekendtgørelse (EO) til agenturer, der inviterer til idéer om måder, hvorpå AI kan forbedre regeringens operationer. EO bør også give mandat til kontrol af AI, der bruges af USG for at sikre, at det ikke spreder diskriminerende resultater utilsigtet.

For eksempel skal der være en rutinemæssig tidsplan på plads, hvor AI-systemer evalueres for at sikre, at indlejrede, skadelige skævheder ikke resulterer i anbefalinger, der er diskriminerende eller inkonsistente med vores demokratiske, inkluderende værdier - og revurderes rutinemæssigt, da AI konstant itererer og lærer. nye mønstre.

At indføre et ansvarligt AI-styringssystem er særligt kritisk i den amerikanske regering, som er forpligtet til at tilbyde grund behandle beskyttelse, når man nægter visse ydelser. For eksempel når AI bruges til at bestemme allokering af Medicaid fordele, og sådanne fordele ændres eller nægtes baseret på en algoritme, skal regeringen være i stand til at forklare dette resultat, passende betegnet som teknologisk retfærdig proces.

Hvis beslutninger delegeres til automatiserede systemer uden forklarlighed, retningslinjer og menneskeligt tilsyn, befinder vi os i den uholdbare situation, hvor denne grundlæggende forfatningsmæssige ret nægtes.

Ligeledes har administrationen enorm magt til at sikre, at AI-sikkerhedsforanstaltninger fra centrale virksomhedsaktører er på plads gennem dens indkøbskraft. Føderale kontraktudgifter forventedes at overstiger 600 milliarder dollars i finansåret 2020, endda før medtagelse af pandemiske økonomiske stimulusfonde. USG kunne bevirke en enorm indvirkning ved at udstede en tjekliste for føderalt indkøb af AI-systemer - dette ville sikre, at regeringens proces er både streng og universelt anvendt, herunder relevante borgerrettighedsovervejelser.

Beskyttelse mod diskrimination, der stammer fra AI-systemer

Regeringen har en anden kraftfuld løftestang til at beskytte os mod AI-skader: dens efterforsknings- og anklagemyndighed. En bekendtgørelse, der instruerer agenturer i at afklare anvendeligheden af ​​gældende love og regler (f.eks. ADA, Fair Housing, Fair Lending, Civil Rights Act, osv.), når afgørelser er afhængige af AI-drevne systemer, kan resultere i en global opgørelse. Virksomheder, der opererer i USA, ville have en ubestridelig motivation til at kontrollere deres AI-systemer for skader mod beskyttede klasser.

Individer med lav indkomst er uforholdsmæssigt sårbare over for mange af de negative virkninger af AI. Dette er især tydeligt vedr kredit og lånoprettelse, fordi de er mindre tilbøjelige til at have adgang til traditionelle finansielle produkter eller evnen til at opnå høje score baseret på traditionelle rammer. Dette bliver så de data, der bruges til at skabe AI-systemer, der automatiserer sådanne beslutninger.

Consumer Finance Protection Bureau (CFPB) kan spille en central rolle i at holde finansielle institutioner ansvarlige for diskriminerende udlånsprocesser, der skyldes afhængighed af diskriminerende AI-systemer. Mandatet for en EO ville være en påtvingende funktion for udtalelser om, hvordan AI-aktiverede systemer vil blive evalueret, sætte virksomhederne på varsel og bedre beskytte offentligheden med klare forventninger til AI-brug.

Der er en klar vej til ansvar, når en person handler på en diskriminerende måde og en retfærdig proces krænkelse, når en offentlig ydelse nægtes vilkårligt uden forklaring. Teoretisk set ville disse forpligtelser og rettigheder overføres med lethed, når et AI-system er involveret, men en gennemgang af agenturets handlinger og juridiske præcedens (eller rettere, manglen på samme) indikerer noget andet.

Administrationen er kommet godt fra start, såsom at rulle tilbage en foreslået HUD-regel det ville have gjort juridiske udfordringer mod diskriminerende kunstig intelligens i det væsentlige uopnåelige. Dernæst bør føderale agenturer med efterforsknings- eller anklagemyndighed afklare, hvilken kunstig intelligens-praksis, der ville falde ind under deres gennemgang, og gældende love ville være gældende - for eksempel HUD for ulovlig boligdiskrimination; CFPB om kunstig intelligens, der bruges i kreditudlån; og Department of Labor om kunstig intelligens, der anvendes i beslutninger foretaget ved ansættelser, evalueringer og opsigelser.

En sådan handling ville have den ekstra fordel at etablere en nyttig præcedens for klagers handlinger i klager.

Biden-administrationen har taget opmuntrende første skridt for at signalere sin hensigt om at sikre inkluderende, mindre diskriminerende AI. Det skal dog bringe sit eget hus i orden ved at instruere, at føderale agenturer kræver, at udvikling, erhvervelse og brug af kunstig intelligens - internt og af dem, det handler med - sker på en måde, der beskytter privatlivets fred, borgerrettigheder, borgerlige frihedsrettigheder og amerikanske værdier.

Kilde: https://techcrunch.com/2021/04/22/to-ensure-inclusivity-the-biden-administration-must-double-down-on-ai-development-initiatives/

Tidsstempel:

Mere fra TechCrunch