Aby zapewnić integrację, administracja Biden musi podwoić liczbę inicjatyw związanych z rozwojem sztucznej inteligencji

Węzeł źródłowy: 823954

Narodowa Komisja Bezpieczeństwa ds. Sztucznej Inteligencji (NSCAI) wydała raport w zeszłym miesiącu dostarczając nieprzyjemną wiadomość publiczną: Ameryka nie jest przygotowana do obrony ani konkurowania w erze sztucznej inteligencji. Prowadzi to do dwóch kluczowych pytań, które wymagają naszej natychmiastowej odpowiedzi: czy Stany Zjednoczone będą nadal globalnym supermocarstwem, jeśli zostaną opóźnione w rozwoju i wdrażaniu sztucznej inteligencji? A co możemy zrobić, aby zmienić tę trajektorię?

Pozostawione bez kontroli, pozornie neutralne narzędzia sztucznej inteligencji (AI) mogą i będą utrwalać nierówności, aw efekcie zautomatyzować dyskryminację. Szkody spowodowane technologią pojawiły się już w decyzjach kredytowych, opieka zdrowotna, reklama.

Aby zapobiec temu nawrotowi i wzrostowi na dużą skalę, administracja Biden musi wyjaśnić obecne przepisy dotyczące sztucznej inteligencji i modeli uczenia maszynowego - zarówno pod względem tego, jak będziemy oceniać wykorzystanie sztucznej inteligencji przez podmioty prywatne, jak i jak będziemy zarządzać wykorzystaniem sztucznej inteligencji w naszych systemach rządowych.

Administracja postawiła solidną stopę naprzód, od kluczowych spotkań w przestrzeni technologicznej po wydanie pliku Executive Order pierwszego dnia urzędowania, podczas którego powołano grupę roboczą ds. Equitable Data. To pocieszyło sceptyków zaniepokojonych zarówno zaangażowaniem USA w rozwój sztucznej inteligencji, jak i zapewnieniem równości w przestrzeni cyfrowej.

Będzie to jednak przelotne, chyba że administracja wykaże zdecydowaną determinację w urzeczywistnianiu finansowania sztucznej inteligencji oraz ustanowieniu liderów i struktur niezbędnych do zabezpieczenia jej rozwoju i wykorzystania.

Potrzeba jasności co do priorytetów

Na szczeblu federalnym nastąpiła wstrząsająca zmiana w polityce dotyczącej sztucznej inteligencji i deklarowanych zobowiązaniach do równości w technologii. Szereg ważnych nominacji przez administrację Bidena – od dr Alondry Nelson na zastępcę OSTP, przez Tima Wu w NEC, po (naszego byłego starszego doradcę) Kurta Campbella w NSC – sygnalizuje, że znaczna uwaga zostanie poświęcona kwestii włączającej Rozwój AI przez ekspertów od wewnątrz.

Połączenia Raport końcowy NSCAI zawiera zalecenia, które mogą okazać się kluczowe dla stworzenia lepszych podstaw rozwoju inkluzywnej sztucznej inteligencji, takich jak tworzenie nowych ścieżek talentów za pośrednictwem platformy Amerykańska Akademia Usług Cyfrowych szkolenie obecnych i przyszłych pracowników.

Raport zaleca również utworzenie nowego Rada ds. Konkurencyjności Technologicznej kierowany przez wiceprezydenta. Może to okazać się istotne dla zapewnienia, że ​​zaangażowanie narodu w przywództwo w zakresie sztucznej inteligencji pozostanie priorytetem na najwyższych poziomach. Rozsądne jest, aby kierownictwo administracji w zakresie sztucznej inteligencji, na którego czele stanęła wiceprzewodnicząca Harris, biorąc pod uwagę jej strategiczne partnerstwo z prezydentem, jej znajomość polityki technicznej i skupia się na prawach obywatelskich.

Stany Zjednoczone muszą dawać przykład

Wiemy, że sztuczna inteligencja ma potężną zdolność do zwiększania wydajności, na przykład przeglądania tysięcy życiorysów w celu zidentyfikowania potencjalnie odpowiednich kandydatów. Ale może również skalować dyskryminację, na przykład Narzędzie do rekrutacji Amazon którzy traktowali priorytetowo kandydatów płci męskiej lub „cyfrowy redlining”Kredytu opartego na rasie.

Administracja Bidena powinna wydać zarządzenie wykonawcze (EO) agencjom zachęcającym do przedstawiania pomysłów na temat sposobów, w jakie sztuczna inteligencja może ulepszyć działania rządu. EO powinien również zlecić kontrole sztucznej inteligencji wykorzystywanej przez USG, aby upewnić się, że nie rozpowszechnia ona w sposób niezamierzony wyników dyskryminujących.

Na przykład musi istnieć rutynowy harmonogram oceniania systemów SI w celu zapewnienia, że ​​osadzone, szkodliwe uprzedzenia nie skutkują zaleceniami, które są dyskryminujące lub niezgodne z naszymi demokratycznymi, inkluzywnymi wartościami - i są regularnie poddawane ponownej ocenie, biorąc pod uwagę, że sztuczna inteligencja stale się powtarza i uczy nowe wzory.

Wprowadzenie odpowiedzialnego systemu zarządzania sztuczną inteligencją jest szczególnie ważne w rządzie USA, który ma obowiązek oferować z powodu wygląda tak ochrona w przypadku odmowy określonych korzyści. Na przykład, gdy AI jest używana do określenia alokacji Świadczenia Medicaid, a takie korzyści są modyfikowane lub odmawiane na podstawie algorytmu, rząd musi być w stanie wyjaśnić ten wynik, trafnie nazwany technologicznym procesem prawidłowym.

Jeśli decyzje są przekazywane do zautomatyzowanych systemów bez wyjaśnialność, wytyczne i nadzór człowieka, znajdujemy się w niemożliwej do utrzymania sytuacji, w której odmawia się tego podstawowego prawa konstytucyjnego.

Podobnie administracja ma ogromną władzę, aby zapewnić, że zabezpieczenia AI stosowane przez kluczowych graczy korporacyjnych są na miejscu, dzięki swojej władzy w zakresie zamówień. Oczekiwano, że federalne wydatki kontraktowe przekroczyć 600 miliardów dolarów w roku fiskalnym 2020, jeszcze przed włączeniem funduszy bodźców gospodarczych związanych z pandemią. USG może wywrzeć ogromny wpływ, wydając listę kontrolną dla federalnych zamówień na systemy sztucznej inteligencji - zapewniłoby to, że proces rządowy jest zarówno rygorystyczny, jak i powszechnie stosowany, w tym istotne kwestie związane z prawami obywatelskimi.

Ochrona przed dyskryminacją wynikającą z systemów SI

Rząd dysponuje inną potężną dźwignią, która może chronić nas przed szkodami związanymi ze sztuczną inteligencją: swoimi organami dochodzeniowymi i prokuratorskimi. Zarządzenie wykonawcze instruujące agencje, aby wyjaśniły zastosowanie obecnych przepisów ustawowych i wykonawczych (np. ADA, godziwych warunków mieszkaniowych, uczciwych kredytów, ustawy o prawach obywatelskich itp.), gdy ustalenia opierają się na systemach opartych na sztucznej inteligencji, mogłoby skutkować rozliczeniem na skalę globalną. Firmy działające w USA miałyby niekwestionowaną motywację do sprawdzania swoich systemów AI pod kątem szkód wyrządzonych klasom chronionym.

Osoby o niskich dochodach są nieproporcjonalnie podatne na wiele negatywnych skutków sztucznej inteligencji. Jest to szczególnie widoczne w przypadku kredyt oraz tworzenie pożyczek, ponieważ rzadziej mają dostęp do tradycyjnych produktów finansowych lub możliwość uzyskiwania wysokich wyników w oparciu o tradycyjne ramy. To następnie staje się danymi używanymi do tworzenia systemów sztucznej inteligencji, które automatyzują takie decyzje.

Biuro Ochrony Finansów Konsumenckich (CFPB) może odgrywać kluczową rolę w rozliczaniu instytucji finansowych z dyskryminujących procesów kredytowych wynikających z polegania na dyskryminujących systemach sztucznej inteligencji. Mandat EO byłby funkcją wymuszającą oświadczenia dotyczące sposobu oceny systemów wykorzystujących sztuczną inteligencję, zwracając uwagę firm i lepiej chroniąc społeczeństwo, mając jasne oczekiwania co do wykorzystania sztucznej inteligencji.

Istnieje wyraźna ścieżka do odpowiedzialności, gdy jednostka działa w sposób dyskryminujący i należyty proces naruszenie, gdy odmawia się korzyści publicznej w sposób arbitralny, bez wyjaśnienia. Teoretycznie te zobowiązania i prawa przenosiłyby się z łatwością, gdy w grę wchodzi system sztucznej inteligencji, ale przegląd działań agencji i precedensu prawnego (a raczej jego brak) wskazuje na coś innego.

Administracja ma dobry początek, na przykład wycofanie pliku proponowana reguła HUD co sprawiłoby, że prawne wyzwania przeciwko dyskryminującej sztucznej inteligencji byłyby zasadniczo nieosiągalne. Następnie agencje federalne z organami śledczymi lub prokuratorskimi powinny wyjaśnić, które praktyki sztucznej inteligencji podlegałyby ich przeglądowi, a obowiązujące przepisy miałyby zastosowanie - na przykład HUD w przypadku nielegalnej dyskryminacji mieszkaniowej; CFPB na sztuczną inteligencję wykorzystywaną w pożyczkach kredytowych; oraz Departament Pracy ds. SI wykorzystywanych przy ustalaniu zatrudnienia, ocenach i rozwiązaniach.

Takie działanie miałoby dodatkową korzyść w postaci ustanowienia przydatny precedens do działań powoda w reklamacji.

Administracja Bidena podjęła zachęcające pierwsze kroki, sygnalizując swój zamiar zapewnienia włączającej, mniej dyskryminującej sztucznej inteligencji. Musi jednak zaprowadzić porządek w swoim domu, nakazując agencjom federalnym, aby rozwój, nabywanie i wykorzystywanie sztucznej inteligencji – wewnętrznie i przez podmioty, z którymi prowadzi interesy – odbywało się w sposób chroniący prywatność, prawa obywatelskie, wolności obywatelskie i Wartości amerykańskie.

Źródło: https://techcrunch.com/2021/04/22/to-ensure-inclusivity-the-biden-administration-must-double-down-on-ai-development-initiatives/

Znak czasu:

Więcej z Techcrunch