Vastuullinen tekoäly antaa sinulle kilpailuedun

Lähdesolmu: 1585975

Jäikö Future of Work Summitin istunto väliin? Mene meille Future of Work Summit -tilauskirjasto virtaan.


Ei ole epäilystäkään siitä, että tekoäly muuttaa liiketoimintaympäristöä ja tarjoaa kilpailuetuja niille, jotka ottavat sen vastaan. On kuitenkin aika siirtyä tekoälyn yksinkertaisesta toteutuksesta pidemmälle ja varmistaa, että tekoäly tehdään turvallisesti ja eettisesti. Tätä kutsutaan vastuullinen tekoäly ja se ei ainoastaan ​​suojaa kielteisiltä seurauksilta, vaan myös sinänsä kilpailuetu.

Mikä on vastuullinen tekoäly?

Vastuullinen tekoäly on hallintokehys, joka kattaa eettiset, oikeudelliset, turvallisuuteen, yksityisyyteen ja vastuullisuuteen liittyvät näkökohdat. Vaikka vastuullisen tekoälyn toteutus vaihtelee yhtiöittäin, sen tarve on selvä. Ilman vastuullisia tekoälykäytäntöjä yritys on alttiina vakaville taloudellisille, maineelle ja oikeudellisille riskeille. Positiivista on se, että vastuullisista tekoälykäytännöistä on tulossa ennakkoehtoja jopa tarjouskilpailulle tietyistä sopimuksista, varsinkin kun hallitukset ovat mukana. hyvin toteutettu strategia auttaa suuresti voittamaan kyseiset tarjoukset. Lisäksi vastuullisen tekoälyn omaksuminen voi parantaa yrityksen mainetta kokonaisuudessaan.

Arvot suunnittelun mukaan

Suuri osa vastuullisen tekoälyn toteuttamisen ongelmista johtuu ennakoinnista. Tämä ennakointi on kyky ennustaa, mitä eettisiä tai oikeudellisia ongelmia tekoälyjärjestelmällä voi olla sen kehitys- ja käyttöönoton elinkaaren aikana. Tällä hetkellä suurin osa vastuullisista tekoälynäkökohdista tapahtuu tekoälytuotteen kehittämisen jälkeen – erittäin tehoton tapa toteuttaa tekoäly. Jos haluat suojata yritystäsi taloudelliselta, oikeudelliselta ja maineriskiltä, ​​sinun on aloitettava projektit vastuullista tekoälyä ajatellen. Yritykselläsi on oltava arvot suunnittelun perusteella, ei sen mukaan, mihin satut päätymään projektin lopussa.

Arvojen toteuttaminen suunnittelulla

Vastuullinen tekoäly kattaa suuren joukon arvoja, jotka yrityksen johdon on priorisoitava. Vaikka kaikkien osa-alueiden kattaminen on tärkeää kaikissa vastuullisissa tekoälysuunnitelmissa, yrityksesi kuhunkin arvoon käyttämä vaivan määrä on yrityksen johtajien päätettävissä. Vastuullisen tekoälyn tarkistamisen ja tekoälyn tosiasiallisen toteuttamisen välillä on oltava tasapaino. Jos käytät liikaa vaivaa vastuulliseen tekoälyyn, tehokkuutesi voi kärsiä. Toisaalta vastuullisen tekoälyn huomiotta jättäminen on holtitonta yrityksen resurssien suhteen. Paras tapa torjua tätä kompromissia on aloittaa perusteellisella analyysillä projektin alussa, ei jälkikäteen.

Paras käytäntö on perustaa vastuullinen tekoälykomitea tarkastelemaan tekoälyprojektisi ennen niiden alkamista, määräajoin projektin aikana ja niiden valmistuttua. Tämän komitean tarkoituksena on arvioida projektia vastuullisten tekoälyarvojen perusteella ja hyväksyä, hylätä tai hylätä toimia, joilla projekti saadaan yhdenmukaiseksi. Tämä voi sisältää lisätietojen pyytämisen tai asioita, joita on muutettava perusteellisesti. Kuten Institutional Review Board, jota käytetään biolääketieteen etiikkaa valvomaan, tässä komiteassa tulisi olla sekä tekoälyn asiantuntijoita että ei-teknisiä jäseniä. Ei-tekniset jäsenet voivat tulla mistä tahansa taustasta ja toimivat tekoälyasiantuntijoiden todellisuuden tarkastuksena. Tekoälyasiantuntijat voivat toisaalta ymmärtää paremmin mahdolliset vaikeudet ja korjauskeinot, mutta he voivat tottua liikaa institutionaalisiin ja teollisuuden normeihin, jotka eivät ehkä ole tarpeeksi herkkiä suuremman yhteisön huolenaiheille. Tämä komitea on kutsuttava koolle hankkeen alussa, määräajoin hankkeen aikana ja hankkeen lopussa lopullista hyväksyntää varten.

Mitä arvoja vastuullisen tekoälytoimikunnan tulisi ottaa huomioon?

Yrityksen tulee huomioida arvot, joihin keskittyä, niin, että ne sopivat sen yleiseen tehtävään. Yrityksesi valitsee todennäköisesti tiettyjä arvoja korostettavaksi, mutta kaikki tärkeimmät huolenaiheet tulee kattaa. On monia kehyksiä, joita voit käyttää inspiraation saamiseksi, kuten Googlen ja Facebook. Tässä artikkelissa käytämme kuitenkin keskustelua Euroopan komission The Assessment List for Trustworthy Artificial Intelligence -tutkimuksessa perustaman tekoälyn korkean tason asiantuntijaryhmän suosituksiin. Nämä suositukset sisältävät seitsemän aluetta. Tutkimme jokaista aluetta ja ehdotamme kysymyksiä jokaisesta alueesta.

1. Henkilöstö ja valvonta

Tekoälyprojektien tulee kunnioittaa ihmisten toimivuutta ja päätöksentekoa. Tämä periaate koskee sitä, kuinka tekoälyprojekti vaikuttaa tai tukee ihmisiä päätöksentekoprosessissa. Se sisältää myös sen, kuinka tekoälyn koehenkilöt saavat tietoisia tekoälystä ja luottavat sen tuloksiin. Joitakin kysymyksiä, jotka on esitettävä, ovat:

  • Onko käyttäjät tietoisia siitä, että päätös tai tulos on tekoälyprojektin tulos?
  • Onko olemassa havainnointi- ja vastausmekanismia tekoälyprojektin haittavaikutusten seuraamiseksi?

2. Tekninen kestävyys ja turvallisuus

Tekninen kestävyys ja turvallisuus edellyttävät, että tekoälyprojektit käsittelevät ennakoivasti tekoälyn epäluotettavaan toimintaan liittyviä riskejä ja minimoivat niiden vaikutukset. Tekoälyprojektin tulosten tulee sisältää tekoälyn kyky toimia ennustettavasti ja johdonmukaisesti, ja sen pitäisi kattaa tekoälyn tarve suojautua kyberturvallisuusongelmilta. Joitakin kysymyksiä, jotka on esitettävä, ovat:

  • Ovatko kyberturvallisuusasiantuntijat testannut tekoälyjärjestelmää?
  • Onko olemassa seurantaprosessia tekoälyprojektiin liittyvien riskien mittaamiseksi ja käyttämiseksi?

3. Yksityisyys ja tietojen hallinta

Tekoälyn tulee suojella yksilön ja ryhmän yksityisyyttä sekä syötteissään että tulosteissaan. Algoritmi ei saa sisältää tietoja, jotka on kerätty yksityisyyttä loukkaavalla tavalla, eikä se saa antaa tuloksia, jotka loukkaavat kohteiden yksityisyyttä, vaikka huonot toimijat yrittäisivät pakottaa tällaisia ​​virheitä. Jotta tämä voidaan tehdä tehokkaasti, myös tietojen hallinnan on oltava huolenaihe. Sopivia kysymyksiä ovat mm.

  • Käyttääkö mikään koulutus- tai päättelytiedoista suojattuja henkilötietoja?
  • Voidaanko tämän tekoälyprojektin tuloksia risteyttää ulkoisten tietojen kanssa tavalla, joka loukkaa yksilön yksityisyyttä?

4. läpinäkyvyys

Avoimuus kattaa huolet yksittäisten tulosten jäljitettävyydestä ja tekoälyalgoritmien yleisestä selitettävyydestä. Jäljitettävyyden avulla käyttäjä ymmärtää, miksi yksilöllinen päätös tehtiin. Selitettävyys tarkoittaa, että käyttäjä ymmärtää päätöksenteossa käytetyn algoritmin perusteet. Se viittaa myös käyttäjän kykyyn ymmärtää, mitkä tekijät osallistuivat hänen erityiseen ennusteeseensa liittyvään päätöksentekoprosessiin. Esitettävät kysymykset ovat:

  • Seuraatko ja tallennatko syöttötietojen laatua?
  • Voiko käyttäjä saada palautetta siitä, miten tietty päätös tehtiin ja mitä hän voisi tehdä päätöksen muuttamiseksi?

5. Monimuotoisuus, syrjimättömyys

Jotta tekoälyprojektia pidettäisiin vastuullisena tekoälynä, sen on toimittava kaikille ihmisryhmille mahdollisimman hyvin. Sillä aikaa AI puolueellisuus voidaan harvoin poistaa kokonaan, se voidaan hallita tehokkaasti. Tämä lieventäminen voi tapahtua tiedonkeruuprosessin aikana – jotta koulutustietoaineistoon sisällytetään monipuolisempi tausta ihmisistä – ja sitä voidaan käyttää myös päättelyhetkellä auttamaan tasapainottamaan tarkkuutta eri ihmisryhmien välillä. Yleisiä kysymyksiä ovat:

  • Oletko tasapainottanut harjoitustietoaineistoasi mahdollisimman paljon erilaisten ihmisten alaryhmien sisällyttämiseksi?
  • Määritteletkö oikeudenmukaisuuden ja arvioitko sitten tuloksia kvantitatiivisesti?

6. Yhteiskunnallinen ja ympäristöllinen hyvinvointi

Tekoälyprojektia tulee arvioida sen vaikutuksen perusteella aiheisiin ja käyttäjiin sekä sen vaikutuksiin ympäristöön. Yhteiskunnallisia normeja, kuten demokraattista päätöksentekoa, arvojen vaalimista ja tekoälyprojekteihin liittyvän riippuvuuden ehkäisemistä, tulee noudattaa. Lisäksi tekoälyhankkeen ympäristöön liittyvien päätösten tulokset olisi otettava huomioon soveltuvin osin. Yksi lähes kaikissa tapauksissa soveltuva tekijä on tarvittavien mallien kouluttamiseen tarvittavan energian määrän arviointi. Kysymyksiä, joita voidaan esittää:

  • Arvioitko hankkeen vaikutuksia sen käyttäjiin ja aiheisiin sekä muihin sidosryhmiin?
  • Kuinka paljon energiaa mallin kouluttamiseen tarvitaan ja kuinka paljon se lisää hiilidioksidipäästöjä?

7. vastuullisuutta

Jonkun henkilön tai organisaation on oltava vastuussa tekoälyprojektin tekemistä tai kehityksen aikana kohdatuista toimista ja päätöksistä. Olisi oltava järjestelmä, jolla varmistetaan riittävä oikeussuojakeino tapauksissa, joissa tehdään haitallisia päätöksiä. Myös riskien hallintaan ja vähentämiseen tulisi kiinnittää aikaa ja huomiota. Sopivia kysymyksiä ovat mm.

  • Voivatko kolmannet osapuolet tarkastaa tekoälyjärjestelmän riskien varalta?
  • Mitkä ovat tekoälyprojektiin liittyvät suurimmat riskit ja miten niitä voidaan vähentää?

Rivi

Yllä hahmotellut seitsemän vastuullisen tekoälyn arvoa tarjoavat lähtökohdan organisaation vastuullisen tekoälyn aloitteelle. Organisaatiot, jotka valitsevat vastuullisen tekoälyn, huomaavat, että heillä on yhä enemmän mahdollisuuksia – kuten tarjouskilpailut valtion sopimuksista. Organisaatiot, jotka eivät käytä näitä käytäntöjä, altistavat itsensä oikeudellisille, eettisille ja maineriskille.

David Ellison on vanhempi AI-datatutkija yrityksessä Lenovo.

VentureBeat

VentureBeatin tehtävänä on olla digitaalinen kaupungin aukio teknisille päätöksentekijöille saadakseen tietoa muuttuvasta tekniikasta ja kaupoista. Sivustomme tarjoaa olennaisia ​​tietoja tietotekniikoista ja strategioista, jotka ohjaavat sinua organisaatiosi johdossa. Kutsumme sinut tulemaan yhteisömme jäseneksi ja tutustumaan:

  • ajantasaista tietoa sinua kiinnostavista aiheista
  • uutiskirjeemme
  • aidattu ajattelijan sisältö ja alennettu pääsy arvostettuihin tapahtumiin, kuten Muuta 2021: Lisätietoja
  • verkko-ominaisuudet ja paljon muuta

Tule jäseneksi

Lähde: https://venturebeat.com/2022/01/15/responsible-ai-will-give-you-a-competitive-advantage/

Aikaleima:

Lisää aiheesta AI - VentureBeat