10 kroków do edukowania firmy w zakresie uczciwości AI

Węzeł źródłowy: 893723

Podnieś poziom technologii danych i strategii swojego przedsiębiorstwa na poziomie Przekształć 2021.


Ponieważ firmy coraz częściej stosują sztuczną inteligencję, muszą rozwiązywać obawy dotyczące zaufania.

Oto 10 praktycznych interwencji, które firmy mogą zastosować, aby zapewnić uczciwość AI. Obejmują one tworzenie Uczciwość AI czarterowanie oraz wdrażanie szkoleń i testów.

Technologie oparte na danych i sztuczna inteligencja (AI) napędzają dziś nasz świat — od przewidywania, gdzie pojawi się kolejny wariant COVID-19, po pomoc w podróżowaniu po najbardziej wydajnej trasie. W wielu dziedzinach opinia publiczna ma duże zaufanie, że algorytmy, które napędzają te doświadczenia, są opracowywane w uczciwy sposób.

Jednak zaufanie to można łatwo złamać. Rozważmy na przykład oprogramowanie rekrutacyjne że ze względu na niereprezentatywne dane szkoleniowe karze wnioski zawierające słowo „kobiety” lub system punktacji kredytowej, który pomija rzeczywiste dowody zdolności kredytowej, w wyniku czego pewne grupy otrzymują niższe limity kredytowe lub odmówiono im pożyczek.

W rzeczywistości technologia rozwija się szybciej niż edukacja i szkolenia w zakresie uczciwości AI. Osoby, które szkolą, opracowują, wdrażają i wprowadzają na rynek te oparte na danych doświadczenia, są często nieświadome implikacje drugiego lub trzeciego rzędu ich ciężkiej pracy.

W ramach Światowego Forum Ekonomicznego Globalna Rada Przyszłości ds. Sztucznej Inteligencji dla Ludzkości, kolektyw praktyków AI, badaczy i doradców korporacyjnych, proponujemy 10 praktycznych interwencji dla firm, które mają zapewnić uczciwość AI.

1. Przypisz odpowiedzialność za edukację AI

Przypisz głównego specjalistę ds. etyki AI (CAIO), który wraz z wielofunkcyjną radą ds. etyki (obejmującą przedstawicieli analityków danych, organów regulacyjnych, public relations, komunikacji i HR) powinien być odpowiedzialny za projektowanie i wdrażanie działań edukacyjnych w zakresie sztucznej inteligencji. CAIO powinno być również „rzecznikiem” pracowników, do którego można się zwrócić w przypadku obaw o uczciwość, a także rzecznikiem personelu nietechnicznego. . Idealnie rola ta powinna podlegać bezpośrednio dyrektorowi generalnemu w celu uzyskania widoczności i wdrożenia.

2. Zdefiniuj uczciwość dla swojej organizacji

Opracuj szablon karty uczciwości AI, a następnie zapytaj Wszystkie departamenty które aktywnie wykorzystują sztuczną inteligencję do ukończenia go w swoim kontekście. Jest to szczególnie istotne dla menedżerów linii biznesowych oraz właścicieli produktów i usług.

3. Zapewnij uczciwość AI w łańcuchu dostaw supply

Wymagaj od dostawców, z których korzystasz, którzy mają sztuczną inteligencję wbudowaną w zamawiane produkty i usługi – na przykład agencji rekrutacyjnej, która może wykorzystywać sztuczną inteligencję do sprawdzania kandydatów – aby również wypełnili kartę uczciwości AI i przestrzegali polityki firmy w zakresie uczciwości AI. Jest to szczególnie istotne w przypadku funkcji zaopatrzenia i dostawców.

4. Edukuj personel i interesariuszy poprzez szkolenia i podejście „ucz się przez działanie”

Wymagaj obowiązkowego szkolenia i certyfikacji wszystkich pracowników w zakresie zasad uczciwości AI – podobnie jak wymaga się od pracowników podpisania kodeksów postępowania w biznesie. Dla personelu technicznego zapewnij szkolenie na temat budowania modeli, które nie naruszają zasad uczciwości. Wszystkie szkolenia powinny wykorzystywać spostrzeżenia z kart uczciwości AI, aby bezpośrednio rozwiązywać problemy, przed którymi stoi firma. Upewnij się, że treść kursu jest regularnie sprawdzana przez radę etyki.

5. Stwórz plan uczciwości HR AI dla ludzi

Plan uczciwości HR AI powinien obejmować coroczny przegląd przez HR w celu oceny różnorodności zespołu pracującego nad technologiami opartymi na danych i sztuczną inteligencją, a także wyraźny przegląd i aktualizację kompetencji i umiejętności, które są obecnie reklamowane w celu rozwoju kluczowych produktów związanych z AI ról (takich jak właściciel produktu, naukowiec ds. danych i inżynier danych), aby zapewnić świadomość uczciwości jest częścią opisu stanowiska pracy. .

6. Przetestuj uczciwość AI przed wprowadzeniem jakichkolwiek technologii

Wymagaj od działów i dostawców przeprowadzania i wewnętrznie publikowanych testów wyników uczciwości, zanim jakikolwiek algorytm sztucznej inteligencji zostanie uruchomiony. Gdy już wiesz, jakie grupy mogą być niesprawiedliwie traktowane ze względu na stronniczość danych, przeprowadź symulację użytkowników z tej grupy i monitoruj wyniki. Może to być wykorzystywane przez zespoły produktowe do iteracji i ulepszania produktu lub usługi przed jego uruchomieniem. Narzędzia open source, takie jak Microsoft Fairlearn, może pomóc w przygotowaniu analizy do testu rzetelności wyników.

7. Poinformuj o swoim podejściu do uczciwości AI

Zorganizuj sesje uczenia się wyników uczciwości z pracownikami mającymi kontakt z klientami i osobami publicznymi, aby przejść testy uczciwości wyników dla każdego nowego lub zaktualizowanego produktu lub usługi. Jest to szczególnie istotne w przypadku marketingu i komunikacji zewnętrznej, a także zespołów obsługi klienta.

8. Poświęć stały punkt na posiedzeniach zarządu procesom uczciwości AI

Dyskusja ta powinna obejmować raportowanie postępów i przestrzegania przepisów, tematy poruszane przez głównego specjalistę ds. etyki SI i radę ds. etyki oraz wyniki testów uczciwości wyników o wysokim priorytecie

9. Upewnij się, że edukacja się trzyma

Regularnie śledź i zgłaszaj udział i ukończenie działań w zakresie uczciwości AI, wraz z wykazanym wpływem zarządzania uczciwością pod względem rzeczywistej wartości biznesowej. Przekaż te aktualizacje kierownikom działów i kierowników liniowych, aby komunikować się z personelem, aby wzmocnić, że dzięki usprawiedliwieniu platform AI i oprogramowania, organizacja jest bardziej efektywna i wydajna.

10. Dokumentuj wszystko

Dokumentuj swoje podejście do uczciwości AI i komunikuj je podczas szkoleń dla pracowników i dostawców oraz na głośnych wydarzeniach, w tym dla klientów i inwestorów.

[Ta historia pierwotnie ukazała się na 10 kroków do edukowania firmy w zakresie uczciwości AI | Światowe Forum Ekonomiczne (weforum.org). Prawa autorskie 2021.]

Nadja Yousif jest Dyrektorem Zarządzającym i Partnerem w Boston Consulting Group oraz współprowadzi praktykę instytucji finansowych w Wielkiej Brytanii, Holandii i Belgii.

Marek Minewicz jest kierownikiem Katedry Polityki Sztucznej Inteligencji w Międzynarodowym Centrum Badań nad Sztuczną Inteligencją pod auspicjami UNESCO w Instytucie Józefa Stefana.

VentureBeat

Misją VentureBeat jest bycie cyfrowym placem miejskim dla decydentów technicznych, którzy zdobywają wiedzę na temat transformacyjnych technologii i transakcji. Nasza witryna zawiera podstawowe informacje na temat technologii danych i strategii, które pomogą Ci kierować organizacjami. Zapraszamy do zostania członkiem naszej społeczności, aby uzyskać dostęp do:

  • aktualne informacje na interesujące Cię tematy
  • nasze biuletyny
  • zamknięte, przemyślane treści i obniżony dostęp do naszych cennych wydarzeń, takich jak Przekształć 2021: Ucz się więcej
  • funkcje sieciowe i nie tylko

Zostań członkiem

Źródło: https://venturebeat.com/2021/06/11/10-steps-to-educate-your-company-on-ai-fairness/

Znak czasu:

Więcej z AI - VentureBeat