10 vaihetta yrityksen kouluttamiseksi tekoälyn oikeudenmukaisuuteen

Lähdesolmu: 893723

Nosta yrityksesi tietotekniikkaa ja strategiaa Muuta 2021.


Kun yritykset käyttävät yhä enemmän tekoälyä, niiden on puututtava luottamukseen liittyviin huolenaiheisiin.

Tässä on 10 käytännön toimenpidettä yrityksille, joilla taataan tekoälyn oikeudenmukaisuus. Niihin kuuluu AI oikeudenmukaisuus peruskirja sekä koulutuksen ja testauksen toteuttaminen.

Datapohjaiset tekniikat ja tekoäly (AI) käyttävät nykypäivän maailmaa - ennustamalla, missä seuraava COVID-19-muunnos syntyy, auttamaan meitä matkustamaan tehokkaimmalla reitillä. Monilla aloilla suurella yleisöllä on suuri luottamus siihen, että näitä kokemuksia tukevat algoritmit kehitetään oikeudenmukaisella tavalla.

Tämä luottamus voidaan kuitenkin helposti rikkoa. Harkitse esimerkiksi rekrytointiohjelmisto edustamattomien koulutustietojen vuoksi rankaisee sovelluksia, jotka sisältävät sanan "naiset", tai luottopisteytysjärjestelmää, joka menettää todelliset todisteet luottokelpoisuudesta ja siten tietyt ryhmät saavat alhaisemmat luottolimiitit tai joilta evätään lainat.

Todellisuudessa tekniikka etenee nopeammin kuin tekoälyn oikeudenmukaisuutta koskeva koulutus. Ihmiset, jotka kouluttavat, kehittävät, toteuttavat ja markkinoivat näitä datapohjaisia ​​kokemuksia, ovat usein tietämättömiä heidän kovan työnsä toisen tai kolmannen asteen seuraukset.

Osana Maailman talousfoorumia Maailmanlaajuinen tulevaisuuden neuvosto ihmiskunnan tekoälystä, tekoälyn harjoittajien, tutkijoiden ja yritysneuvojien joukko, ehdotamme yrityksille 10 käytännön toimenpidettä tekoälyn oikeudenmukaisuuden varmistamiseksi.

1. Määritä vastuu tekoälyn opetuksesta

Määritä tekoälyn etiikkavirkailija (CAIO), joka yhdessä toiminnallisen rajat ylittävän eettisen lautakunnan (mukaan lukien tietojenkäsittelytieteen, sääntelyn, suhdetoiminnan, viestinnän ja henkilöstöhallinnon edustajien) kanssa on vastuussa tekoälyn koulutustoiminnan suunnittelusta ja toteuttamisesta. CAIO: n tulisi olla myös "oikeusasiamies" henkilöstölle, jolle on tavoitettava oikeudenmukaisuuden vuoksi, sekä edustaja muulle kuin tekniselle henkilöstölle. Ihannetapauksessa tämän roolin tulisi raportoida suoraan toimitusjohtajalle näkyvyyden ja toteutuksen suhteen.

2. Määritä oikeudenmukaisuus organisaatiollesi

Kehitä tekoälyn oikeudenmukaisuuden peruskirjamalli ja kysy sitten kaikki osastot jotka käyttävät aktiivisesti tekoälyä täydentääkseen sitä kontekstissaan. Tämä on erityisen tärkeää liiketoimintalinjojen johtajille sekä tuotteiden ja palvelujen omistajille.

3. Varmista tekoälyn oikeudenmukaisuus toimitusketjussa

Vaadi käyttämiäsi toimittajia, joilla on tekoäly sisäänrakennettuna hankittuihin tuotteisiin ja palveluihin - esimerkiksi rekrytointitoimisto, joka saattaa käyttää tekoälyä ehdokkaiden seulontaan - täyttämään myös tekoälyn oikeudenmukaisuuden peruskirja ja noudattamaan yrityksen tekoälyn oikeudenmukaisuutta koskevia käytäntöjä. Tämä on erityisen tärkeää hankintatoiminnon ja toimittajien kannalta.

4. Kouluta henkilöstöä ja sidosryhmiä kouluttamalla ja "oppia tekemällä" -lähestymistavalla

Vaatia kaikille työntekijöille pakollista koulutusta ja todistuksia tekoälyn oikeudenmukaisuuden periaatteista - samalla tavalla kuin henkilöstöä vaaditaan allekirjoittamaan liiketoimintasäännöt. Tarjoa teknisen henkilöstön koulutusta mallien rakentamisesta, jotka eivät riko oikeudenmukaisuuden periaatteita. Kaikkien koulutusten tulisi hyödyntää tekoälyn oikeudenmukaisuusperiaatteiden näkemyksiä yrityksen ongelmien ratkaisemiseksi suoraan. Varmista, että eettinen lautakunta tarkistaa kurssin sisällön säännöllisesti.

5. Luo HR AI: n oikeudenmukaisuuden suunnittelu

HR-tekoälyn oikeudenmukaisuussuunnitelmaan tulisi sisältyä HR: n vuosittainen tarkastelu arvioidakseen tietopohjaisten tekniikoiden ja tekoälyn parissa työskentelevän tiimin monimuotoisuuden sekä nimenomainen tarkistus ja päivitys osaamiseen ja taitoihin, joita tällä hetkellä mainostetaan tekoälyn kannalta keskeisissä tuotekehityksissä roolit (kuten tuotteen omistaja, datatieteilijä ja insinööri) oikeudenmukaisuuden tuntemisen varmistamiseksi ovat osa työnkuvaa.

6. Testaa tekoälyn oikeudenmukaisuus ennen teknisen laukaisun aloittamista

Vaatia osastoja ja toimittajia suorittamaan ja julkaisemaan sisäisesti oikeudenmukaisuuden lopputulokset ennen kuin tekoälyn algoritmit otetaan käyttöön. Kun tiedät, mitä ryhmiä voidaan kohdella epäoikeudenmukaisesti tietojen puolueellisuudesta johtuen, simuloi kyseisen ryhmän käyttäjiä ja seuraa tuloksia. Tuotetiimit voivat käyttää tätä toistamaan ja parantamaan tuotteitaan tai palveluitaan ennen niiden julkaisua. Avoimen lähdekoodin työkalut, kuten Microsoft Fairlearn, voi auttaa analyysin laatimisessa oikeudenmukaisuuden lopputulosta varten.

7. Kerro lähestymistavastasi tekoälyn oikeudenmukaisuuteen

Suunnittele oikeudenmukaisuustulosten oppimistilaisuudet asiakkaiden ja julkisen henkilöstön kanssa käymään läpi uuden tai päivitetyn tuotteen tai palvelun oikeudenmukaisuuden lopputulokset. Tämä on erityisen tärkeää markkinoinnin ja ulkoisen viestinnän sekä asiakaspalvelutiimien kannalta.

8. Omista pysyvä kohta hallituksen kokouksissa tekoälyn oikeudenmukaisuusprosesseihin

Tähän keskusteluun tulisi sisältyä raportointi edistymisestä ja noudattamisesta, tekoälyn eettisen päällikön ja eettisen lautakunnan esille nostamat teemat sekä korkean prioriteetin oikeudenmukaisuuden lopputulosten testit

9. Varmista, että koulutus on kiinni

Seuraa ja raportoi säännöllisesti tekoälyn oikeudenmukaisuustoimien osallistumista ja loppuun saattamista sekä oikeudenmukaisuuden hallinnan todistettua vaikutusta todelliseen liiketoiminnan arvoon. Toimita nämä päivitykset osasto- ja linjapäälliköille kommunikoimaan henkilöstölle vahvistamaan, että tekemällä tekoälyalustoista ja ohjelmistoista oikeudenmukaisempi organisaatio on tehokkaampi ja tuottavampi.

10. Dokumentoi kaikki

Dokumentoi lähestymistapasi tekoälyn oikeudenmukaisuuteen ja ilmoita siitä henkilökunnan ja toimittajien koulutuksissa ja korkean profiilin tapahtumissa, myös asiakkaille ja sijoittajille.

[Tämä tarina ilmestyi alun perin 10 vaihetta kouluttaa yritystäsi tekoälyn oikeudenmukaisuuteen | Maailman talousfoorumi (weforum.org). Tekijänoikeus 2021.]

Nadjia Yousif on toimitusjohtaja ja kumppani Boston Consulting Group ja johtaa yhdessä rahoituslaitosten käytäntöä Isossa-Britanniassa, Alankomaissa ja Belgiassa.

Mark Minevich on keinotekoisen älykkyyden politiikan puheenjohtaja Unescon suojeluksessa olevassa tekoälyn kansainvälisessä tutkimuskeskuksessa, Jozef Stefan -instituutissa.

VentureBeat

VentureBeatin tehtävänä on olla digitaalinen kaupungin aukio teknisille päätöksentekijöille saadakseen tietoa muuttuvasta tekniikasta ja kaupoista. Sivustomme tarjoaa olennaisia ​​tietoja tietotekniikoista ja strategioista, jotka ohjaavat sinua organisaatiosi johdossa. Kutsumme sinut tulemaan yhteisömme jäseneksi ja tutustumaan:

  • ajantasaista tietoa sinua kiinnostavista aiheista
  • uutiskirjeemme
  • aidattu ajattelijan sisältö ja alennettu pääsy arvostettuihin tapahtumiin, kuten Muuta 2021: Lisätietoja
  • verkko-ominaisuudet ja paljon muuta

Tule jäseneksi

Lähde: https://venturebeat.com/2021/06/11/10-steps-to-educate-your-company-on-ai-fairness/

Aikaleima:

Lisää aiheesta AI - VentureBeat