Ansvarlig AI vil gi deg et konkurransefortrinn

Kilde node: 1585975

Gikk du glipp av en økt fra Future of Work Summit? Gå over til vår Future of Work Summit on-demand bibliotek å strømme.


Det er liten tvil om at AI endrer forretningslandskapet og gir konkurransefortrinn til de som omfavner det. Det er imidlertid på tide å gå utover den enkle implementeringen av AI og å sikre at AI blir utført på en sikker og etisk måte. Dette kalles ansvarlig AI og vil tjene ikke bare som en beskyttelse mot negative konsekvenser, men også som et konkurransefortrinn i seg selv.

Hva er ansvarlig AI?

Ansvarlig AI er et styringsrammeverk som dekker etiske, juridiske, sikkerhets-, personvern- og ansvarlighetsproblemer. Selv om implementeringen av ansvarlig AI varierer fra selskap til selskap, er nødvendigheten av det tydelig. Uten ansvarlig AI-praksis på plass, er et selskap utsatt for alvorlige økonomiske, omdømmemessige og juridiske risikoer. På den positive siden er ansvarlig AI-praksis i ferd med å bli en forutsetning for til og med å by på visse kontrakter, spesielt når regjeringer er involvert; en godt utført strategi vil i stor grad hjelpe til med å vinne disse budene. I tillegg kan det å omfavne ansvarlig AI bidra til en omdømmegevinst for selskapet generelt.

Verdier etter design

Mye av problemet med å implementere ansvarlig AI kommer ned til framsyn. Denne fremsynet er evnen til å forutsi hvilke etiske eller juridiske problemer et AI-system kan ha i løpet av utviklings- og distribusjonslivssyklusen. Akkurat nå skjer de fleste av de ansvarlige AI-hensynene etter at et AI-produkt er utviklet - en veldig ineffektiv måte å implementere AI på. Hvis du vil beskytte bedriften din mot finansiell, juridisk og omdømmerisiko, må du starte prosjekter med ansvarlig AI i tankene. Din bedrift må ha verdier ved design, ikke av hva du tilfeldigvis ender opp med på slutten av et prosjekt.

Implementering av verdier ved design

Ansvarlig AI dekker et stort antall verdier som må prioriteres av bedriftsledelsen. Selv om det er viktig å dekke alle områder i enhver ansvarlig AI-plan, er det opp til bedriftslederne hvor mye innsats bedriften din bruker på hver verdi. Det må være en balanse mellom å sjekke for ansvarlig AI og faktisk implementere AI. Hvis du bruker for mye innsats på ansvarlig AI, kan effektiviteten din lide. På den annen side er det å ignorere ansvarlig AI å være hensynsløs med selskapets ressurser. Den beste måten å bekjempe denne avveiningen på er å starte med en grundig analyse ved starten av prosjektet, og ikke som en etterfølgende innsats.

Beste praksis er å etablere en ansvarlig AI-komité for å gjennomgå AI-prosjektene dine før de starter, med jevne mellomrom under prosjektene og ved fullføring. Hensikten med denne komiteen er å evaluere prosjektet mot ansvarlige AI-verdier og godkjenne, avvise eller ikke godkjenne handlinger for å bringe prosjektet i samsvar. Dette kan inkludere å be om å få mer informasjon eller ting som må endres fundamentalt. Som et institusjonelt revisjonsråd som brukes til å overvåke etikk i biomedisinsk forskning, bør denne komiteen inneholde både eksperter på AI og ikke-tekniske medlemmer. De ikke-tekniske medlemmene kan komme fra hvilken som helst bakgrunn og tjene som en realitetssjekk av AI-ekspertene. AI-eksperter, på den annen side, kan bedre forstå vanskelighetene og utbedringen som er mulig, men kan bli for vant til institusjonelle og bransjenormer som kanskje ikke er følsomme nok for bekymringer i det større samfunnet. Denne komiteen bør kalles sammen ved starten av prosjektet, med jevne mellomrom i løpet av prosjektet og ved slutten av prosjektet for endelig godkjenning.

Hvilke verdier bør komiteen for ansvarlig AI vurdere?

Verdier å fokusere på bør vurderes av virksomheten for å passe inn i dens overordnede målsetning. Bedriften din vil sannsynligvis velge spesifikke verdier å legge vekt på, men alle viktige bekymringsområder bør dekkes. Det er mange rammer du kan velge å bruke til inspirasjon som f.eks Googles og Facebooks. For denne artikkelen vil vi imidlertid basere diskusjonen på anbefalingene gitt av High-Level Expert Group on Artificial Intelligence satt opp av EU-kommisjonen i The Assessment List for Trustworthy Artificial Intelligence. Disse anbefalingene omfatter syv områder. Vi vil utforske hvert område og foreslå spørsmål som kan stilles angående hvert område.

1. Menneskelig handlefrihet og tilsyn

AI-prosjekter bør respektere menneskelig handlefrihet og beslutningstaking. Dette prinsippet innebærer hvordan AI-prosjektet vil påvirke eller støtte mennesker i beslutningsprosessen. Det involverer også hvordan fagene til AI vil bli gjort oppmerksomme på AI og sette tillit til resultatene. Noen spørsmål som må stilles inkluderer:

  • Blir brukerne gjort oppmerksomme på at en beslutning eller et resultat er et resultat av et AI-prosjekt?
  • Er det noen deteksjons- og responsmekanisme for å overvåke negative effekter av AI-prosjektet?

2. Teknisk robusthet og sikkerhet

Teknisk robusthet og sikkerhet krever at AI-prosjekter forebyggende adresserer bekymringer rundt risiko forbundet med at AI-en fungerer upålitelig og minimerer virkningen av slike. Resultatene av AI-prosjektet bør inkludere evnen til AI til å prestere forutsigbart og konsekvent, og det bør dekke behovet for AI for å bli beskyttet mot cybersikkerhetsproblemer. Noen spørsmål som må stilles inkluderer:

  • Har AI-systemet blitt testet av cybersikkerhetseksperter?
  • Er det en overvåkingsprosess for å måle og få tilgang til risiko knyttet til AI-prosjektet?

3. Personvern og datastyring

AI skal beskytte individets og gruppens personvern, både i input og output. Algoritmen skal ikke inkludere data som er samlet inn på en måte som krenker personvernet, og den skal ikke gi resultater som krenker personvernet til forsøkspersonene, selv når dårlige aktører prøver å fremtvinge slike feil. For å gjøre dette effektivt, må datastyring også være en bekymring. Passende spørsmål å stille inkluderer:

  • Bruker noen av opplærings- eller slutningsdataene beskyttede personopplysninger?
  • Kan resultatene av dette AI-prosjektet krysses med eksterne data på en måte som vil krenke en persons personvern?

4. åpenhet

Åpenhet dekker bekymringer om sporbarhet i individuelle resultater og generell forklaring av AI-algoritmer. Sporbarheten lar brukeren forstå hvorfor en individuell beslutning ble tatt. Forklarlighet refererer til at brukeren kan forstå det grunnleggende i algoritmen som ble brukt for å ta avgjørelsen. Det refererer også til brukerens evne til å forstå hvilke faktorer som var involvert i beslutningsprosessen for deres spesifikke prediksjon. Spørsmål å stille er:

  • Overvåker og registrerer du kvaliteten på inndataene?
  • Kan en bruker få tilbakemelding på hvordan en bestemt avgjørelse ble tatt og hva de kunne gjøre for å endre den avgjørelsen?

5. Mangfold, ikke-diskriminering

For å kunne anses som ansvarlig AI må AI-prosjektet fungere best mulig for alle undergrupper av mennesker. Samtidig som AI skjevhet kan sjelden elimineres helt, det kan håndteres effektivt. Denne reduksjonen kan finne sted under datainnsamlingsprosessen – for å inkludere en mer mangfoldig bakgrunn av personer i opplæringsdatasettet – og kan også brukes på slutningstidspunkt for å hjelpe til med å balansere nøyaktighet mellom ulike grupperinger av mennesker. Vanlige spørsmål inkluderer:

  • Balanserte du treningsdatasettet ditt så mye som mulig for å inkludere ulike undergrupper av mennesker?
  • Definerer du rettferdighet og deretter kvantitativt vurdere resultatene?

6. Samfunns- og miljøvelferd

Et AI-prosjekt bør evalueres i forhold til dets innvirkning på fagene og brukerne sammen med dets innvirkning på miljøet. Sosiale normer som demokratisk beslutningstaking, opprettholdelse av verdier og forebygging av avhengighet til AI-prosjekter bør opprettholdes. Videre bør resultatene av beslutningene fra AI-prosjektet om miljø vurderes der det er aktuelt. En faktor som gjelder i nesten alle tilfeller er en evaluering av mengden energi som trengs for å trene de nødvendige modellene. Spørsmål som kan stilles:

  • Har du vurdert prosjektets innvirkning på brukere og fag samt andre interessenter?
  • Hvor mye energi kreves for å trene modellen og hvor mye bidrar det til karbonutslipp?

7. ansvarlighet

Noen personer eller organisasjoner må være ansvarlige for handlingene og beslutningene som gjøres av AI-prosjektet eller som oppstår under utviklingen. Det bør være et system for å sikre tilstrekkelig mulighet for oppreisning i saker hvor det fattes skadelige avgjørelser. Det bør også være litt tid og oppmerksomhet til risikostyring og reduksjon. Passende spørsmål inkluderer:

  • Kan AI-systemet revideres av tredjeparter for risiko?
  • Hva er de største risikoene forbundet med AI-prosjektet og hvordan kan de reduseres?

Den nederste linjen

De syv verdiene for ansvarlig AI skissert ovenfor gir et utgangspunkt for en organisasjons ansvarlige AI-initiativ. Organisasjoner som velger å satse på ansvarlig kunstig intelligens, vil oppleve at de i økende grad har tilgang til flere muligheter – for eksempel å by på offentlige kontrakter. Organisasjoner som ikke implementerer denne praksisen, utsetter seg selv for juridiske, etiske og omdømmerisikoer.

David Ellison er Senior AI Data Scientist ved Lenovo.

VentureBeat

VentureBeats oppdrag er å være et digitalt torg for tekniske beslutningstakere for å få kunnskap om transformativ teknologi og transaksjoner. Nettstedet vårt gir viktig informasjon om datateknologier og strategier for å veilede deg når du leder organisasjonene dine. Vi inviterer deg til å bli medlem av samfunnet vårt, for å få tilgang til:

  • oppdatert informasjon om temaene som er interessante for deg
  • våre nyhetsbrev
  • gated tankelederinnhold og nedsatt tilgang til våre verdsatte arrangementer, som f.eks Transformer 2021: Lære mer
  • nettverksfunksjoner og mer

Bli medlem

Kilde: https://venturebeat.com/2022/01/15/responsible-ai-will-give-you-a-competitive-advantage/

Tidstempel:

Mer fra AI - VentureBeat