För att säkerställa inkludering måste Biden-administrationen dubbla ner AI-utvecklingsinitiativ

Källnod: 823954

National Security Commission on Artificial Intelligence (NSCAI) utfärdade en rapport förra månaden med ett obekvämt offentligt meddelande: Amerika är inte beredda att försvara eller tävla i AI-eran. Det leder till två nyckelfrågor som kräver vårt omedelbara svar: Kommer USA att fortsätta vara en global stormakt om de hamnar efter i AI-utveckling och distribution? Och vad kan vi göra för att ändra denna bana?

Vänster okontrollerade, till synes neutrala verktyg för artificiell intelligens (AI) kan och kommer att upprätthålla ojämlikheter och i själva verket automatisera diskriminering. Tekniskt aktiverade skador har redan dykt upp i kreditbeslut, hälsovårdstjänsteroch reklam.

För att förhindra denna upprepning och tillväxt i stor skala måste Biden-administrationen klargöra gällande lagar som rör AI och maskininlärningsmodeller - både när det gäller hur vi kommer att utvärdera användningen av privata aktörer och hur vi ska styra AI-användningen inom våra statliga system.

Förvaltningen har satt en stark fot framåt, från viktiga utnämningar i teknikområdet till att utfärda en Executive Order den första kontordagen som inrättade en arbetsgrupp för Equitable Data. Detta har tröstat skeptiker oroade både över USA: s engagemang för AI-utveckling och för att säkerställa rättvisa i det digitala rummet.

Men det kommer att vara flyktigt såvida inte administrationen visar stark beslutsamhet att göra AI-finansiering till verklighet och etablera ledare och strukturer som är nödvändiga för att skydda dess utveckling och användning.

Behov av tydlighet om prioriteringar

Det har skett en seismisk förändring på federal nivå inom AI-politiken och i uttalade åtaganden om jämställdhet inom teknik. Ett antal högt profilerade utnämningar av Biden-administrationen - från Dr. Alondra Nelson som ställföreträdare för OSTP, till Tim Wu vid NEC, till (vår tidigare seniorrådgivare) Kurt Campbell på NSC - signalerar att betydande uppmärksamhet kommer att ägnas åt inkluderande AI-utveckling av experter på insidan.

Smakämnen NSCAI slutrapport innehåller rekommendationer som kan visa sig vara avgörande för att möjliggöra bättre grundval för inkluderande AI-utveckling, såsom att skapa nya talangledningar genom en US Digital Service Academy att utbilda nuvarande och framtida anställda.

Rapporten rekommenderar också att man skapar en ny Rådet för teknikens konkurrenskraft ledd av vice presidenten. Detta kan visa sig vara väsentligt för att säkerställa att landets engagemang för AI-ledarskap förblir en prioritet på högsta nivå. Det är vettigt att leda administrationens ledning inom AI av VP Harris mot bakgrund av hennes strategiska partnerskap med presidenten, hennes tekniska politiska kunniga och hennes fokus på medborgerliga rättigheter.

USA måste gå med gott exempel

Vi vet att AI är kraftfullt i sin förmåga att skapa effektivitet, som att ploga igenom tusentals CV för att identifiera potentiellt lämpliga kandidater. Men det kan också skala diskriminering, till exempel Amazon anställningsverktyg som prioriterade manliga kandidater eller “digital omlining”Av kredit baserat på ras.

Bidens administration bör utfärda en verkställande order (EO) till byråer som bjuder in idéer om hur AI kan förbättra regeringens verksamhet. EO bör också ge mandat till kontroller av AI som används av USG för att säkerställa att den inte sprider diskriminerande resultat oavsiktligt.

Det måste till exempel finnas ett rutinplan där AI-system utvärderas för att säkerställa att inbäddade, skadliga fördomar inte resulterar i rekommendationer som är diskriminerande eller inkonsekventa med våra demokratiska, inkluderande värden - och omvärderas rutinmässigt med tanke på att AI ständigt itererar och lär sig nya mönster.

Att införa ett ansvarsfullt AI-styrningssystem är särskilt viktigt i den amerikanska regeringen, som krävs att erbjuda grund process skydd när man förnekar vissa förmåner. Till exempel när AI används för att bestämma fördelningen av Fördelar med Medicaid, och sådana fördelar modifieras eller nekas baserat på en algoritm, måste regeringen kunna förklara resultatet, lämpligt benämnt teknologisk förfarande.

Om beslut delegeras till automatiserade system utan förklarbarhet, riktlinjer och mänsklig tillsyn, befinner vi oss i den ohållbara situationen där denna grundläggande konstitutionella rätt nekas.

På samma sätt har administrationen enorm makt att se till att AI-skydd från viktiga företagsaktörer finns på plats genom sin upphandlingskraft. Federal kontraktsutgifter förväntades överstiga 600 miljarder dollar under räkenskapsåret 2020, även innan pandemiska ekonomiska stimulansfonder ingår. USG kan påverka enorma effekter genom att utfärda en checklista för federal upphandling av AI-system - detta skulle säkerställa att regeringens process är både rigorös och allmänt tillämpad, inklusive relevanta medborgerliga överväganden.

Skydd mot diskriminering till följd av AI-system

Regeringen har en annan kraftfull hävstång för att skydda oss från AI-skador: dess utrednings- och åklagarmyndighet. En verkställande order som instruerar byråer att klargöra tillämpligheten av gällande lagar och förordningar (t.ex. ADA, rättvisa bostäder, rättvis utlåning, medborgerliga rättigheter, etc.) när bestämningar är beroende av AI-drivna system kan resultera i en global räkning. Företag som är verksamma i USA skulle ha obestridlig motivation att kontrollera sina AI-system för skador mot skyddade klasser.

Individer med låg inkomst är oproportionerligt utsatta för många av de negativa effekterna av AI. Detta är särskilt uppenbart med avseende på kredit och låneskapande, eftersom de är mindre benägna att ha tillgång till traditionella finansiella produkter eller förmågan att få höga poäng baserat på traditionella ramar. Detta blir sedan den data som används för att skapa AI-system som automatiserar sådana beslut.

Consumer Finance Protection Bureau (CFPB) kan spela en central roll när det gäller att hålla finansinstitut ansvariga för diskriminerande utlåningsprocesser som beror på beroende av diskriminerande AI-system. Mandatet för en EO skulle vara en tvingande funktion för uttalanden om hur AI-aktiverade system kommer att utvärderas, vilket sätter företag på varsel och bättre skyddar allmänheten med tydliga förväntningar på AI-användning.

Det finns en tydlig väg till ansvar när en individ agerar på ett diskriminerande sätt och en vederbörlig process kränkning när en allmän nytta nekas godtyckligt, utan förklaring. Teoretiskt skulle dessa skulder och rättigheter lätt överföras när ett AI-system är inblandat, men en granskning av myndighetsåtgärder och rättslig prejudikat (eller snarare, bristen på dem) indikerar något annat.

Förvaltningen har en bra start, som att rulla tillbaka a föreslagen HUD-regel det skulle ha gjort juridiska utmaningar mot diskriminerande AI i huvudsak omöjliga. Därefter bör federala myndigheter med utrednings- eller åklagarmyndighet klargöra vilka AI-metoder som faller under deras granskning och gällande lagar skulle vara tillämpliga - till exempel HUD för olaglig bostadsdiskriminering; CFPB om AI som används vid kreditutlåning; och Department of Labor on AI som används i beslut som görs vid anställning, utvärderingar och uppsägningar.

En sådan åtgärd skulle ha den extra fördelen att upprätta en användbart prejudikat för klagandes handlingar i klagomål.

Biden-administrationen har tagit uppmuntrande första steg som signalerar sin avsikt att säkerställa inkluderande, mindre diskriminerande AI. Det måste emellertid sätta sitt eget hus i ordning genom att förordna att federala organ kräver utveckling, förvärv och användning av AI - internt och av dem det gör affärer med - görs på ett sätt som skyddar integritet, medborgerliga rättigheter, medborgerliga friheter och Amerikanska värden.

Källa: https://techcrunch.com/2021/04/22/to-ensure-inclusivity-the-biden-administration-must-double-down-on-ai-development-initiatives/

Tidsstämpel:

Mer från TechCrunch