A felelős AI versenyelőnyt biztosít Önnek

Forrás csomópont: 1585975

Lemaradt a Future of Work Summit üléséről? Irány a miénk Future of Work Summit igény szerinti könyvtár patakba.


Nem kétséges, hogy a mesterséges intelligencia megváltoztatja az üzleti környezetet, és versenyelőnyöket biztosít azoknak, akik ezt elfogadják. Ideje azonban túllépni a mesterséges intelligencia egyszerű megvalósításán, és gondoskodni arról, hogy a mesterséges intelligencia biztonságos és etikus módon történjen. Ezt nevezik felelős AI és nemcsak a negatív következmények elleni védelemként szolgál majd, hanem önmagában versenyelőnyként is szolgál.

Mi a felelős AI?

A Responsible AI egy olyan irányítási keret, amely lefedi az etikai, jogi, biztonsági, adatvédelmi és elszámoltathatósági szempontokat. Bár a felelős AI megvalósítása vállalatonként eltérő, ennek szükségessége egyértelmű. Felelős mesterséges intelligencia gyakorlatok nélkül egy vállalat komoly pénzügyi, reputációs és jogi kockázatoknak van kitéve. Pozitívum, hogy a felelős mesterséges intelligencia gyakorlata bizonyos szerződésekre való licitálás előfeltételévé válik, különösen, ha kormányok is részt vesznek benne; egy jól kivitelezett stratégia nagyban segíti az ajánlatok megnyerését. Ezenkívül a felelős mesterséges intelligencia felkarolása hozzájárulhat a vállalat általános hírnevének növeléséhez.

Értékek tervezés szerint

A felelős mesterséges intelligencia megvalósításával kapcsolatos problémák nagy része az előrelátásból fakad. Ez az előrelátás képes megjósolni, hogy egy AI-rendszer milyen etikai vagy jogi problémákkal járhat a fejlesztési és telepítési életciklusa során. Jelenleg a legtöbb felelős AI megfontolás az AI-termék kifejlesztése után következik be – ez egy nagyon hatástalan módja az AI megvalósításának. Ha meg akarja védeni vállalatát a pénzügyi, jogi és hírnévvel kapcsolatos kockázatoktól, a felelős AI szem előtt tartásával kell elindítania a projekteket. Vállalatának tervezési értékekkel kell rendelkeznie, nem pedig annak alapján, amivel véletlenül a projekt végén végez.

Az értékek tervezéssel való megvalósítása

A felelős mesterséges intelligencia számos olyan értéket takar, amelyeket a vállalatvezetésnek prioritásként kell kezelnie. Bár minden felelős AI-tervben fontos, hogy minden területet lefedjünk, a vállalat vezetői döntenek arról, hogy a vállalat mennyi erőfeszítést fordít az egyes értékekre. Egyensúlyt kell teremteni a felelős MI ellenőrzése és a mesterséges intelligencia tényleges megvalósítása között. Ha túl sok erőfeszítést fordít a felelős mesterséges intelligencia kialakítására, hatékonysága csökkenhet. Másrészt a felelős AI figyelmen kívül hagyása a vállalati erőforrásokkal való meggondolatlanság. A kompromisszum elleni küzdelem legjobb módja a projekt kezdetén végzett alapos elemzéssel, nem pedig utólagos erőfeszítéssel.

A legjobb gyakorlat egy felelős AI-bizottság létrehozása, amely felülvizsgálja a mesterségesintelligencia-projektjeit azok megkezdése előtt, a projektek során időszakonként és a befejezés után. Ennek a bizottságnak az a célja, hogy értékelje a projektet a felelős mesterséges intelligencia értékekhez képest, és jóváhagyja, elutasítsa vagy elutasítsa a projektet megfelelővé tételére irányuló intézkedéseket. Ez magában foglalhatja további információk megszerzését, vagy olyan dolgokat, amelyeket alapvetően meg kell változtatni. Az orvosbiológiai kutatások etikájának figyelemmel kísérésére használt intézményi felülvizsgálati bizottsághoz hasonlóan ennek a bizottságnak a mesterséges intelligencia szakértőiből és nem műszaki tagokból is kell állnia. A nem műszaki tagok bármilyen háttérből származhatnak, és valóságellenőrzésként szolgálhatnak az AI-szakértők számára. Az AI-szakértők viszont jobban megérthetik a lehetséges nehézségeket és megoldásokat, de túlságosan hozzászokhatnak az intézményi és iparági normákhoz, amelyek esetleg nem elég érzékenyek a nagyobb közösség aggodalmaira. Ezt a bizottságot a projekt kezdetekor, a projekt során időszakonként és a projekt végén össze kell hívni végső jóváhagyás céljából.

Milyen értékeket kell figyelembe vennie a Felelős AI Bizottságnak?

A vállalkozásnak mérlegelnie kell azokat az értékeket, amelyekre összpontosítani kell, hogy illeszkedjenek átfogó küldetésnyilatkozatába. Vállalkozása valószínűleg konkrét értékeket fog hangsúlyozni, de minden fontosabb területet le kell fednie. Számos keretrendszer közül választhat inspirációként, mint pl Google és a Facebook. Ebben a cikkben azonban az Európai Bizottság által a Megbízható Mesterséges Intelligencia Értékelési Listájában felállított mesterséges intelligenciával foglalkozó magas szintű szakértői csoport ajánlásaira alapozzuk a vitát. Ezek az ajánlások hét területet foglalnak magukban. Minden területet feltérképezünk, és kérdéseket teszünk fel az egyes területekkel kapcsolatban.

1. Emberi ügynökség és felügyelet

Az AI-projekteknek tiszteletben kell tartaniuk az emberi cselekvést és a döntéshozatalt. Ez az elv magában foglalja, hogy az AI-projekt hogyan befolyásolja vagy támogatja az embereket a döntéshozatali folyamatban. Ez azt is magában foglalja, hogy a mesterséges intelligencia alanyai hogyan lesznek tisztában az MI-vel, és hogyan bíznak meg annak eredményeiben. Néhány kérdés, amelyeket fel kell tenni:

  • Tudatosítják a felhasználókat, hogy egy döntés vagy eredmény egy AI-projekt eredménye?
  • Létezik-e észlelési és reagálási mechanizmus az AI-projekt káros hatásainak nyomon követésére?

2. Műszaki robusztusság és biztonság

A műszaki robusztusság és a biztonság megköveteli, hogy az AI-projektek megelőzően foglalkozzanak a mesterséges intelligencia megbízhatatlan működésével kapcsolatos kockázatokkal kapcsolatos aggályokkal, és minimalizálják ezek hatását. A mesterséges intelligencia projekt eredményeinek tartalmazniuk kell a mesterséges intelligencia kiszámítható és következetes teljesítményét, és ki kell terjedniük a mesterséges intelligencia kiberbiztonsági aggodalmak elleni védelmére. Néhány kérdés, amelyeket fel kell tenni:

  • Az AI-rendszert tesztelték kiberbiztonsági szakértők?
  • Létezik-e megfigyelési folyamat az AI-projekttel kapcsolatos kockázatok mérésére és elérésére?

3. Adatvédelem és adatkezelés

Az AI-nak meg kell védenie az egyének és a csoportok magánéletét, mind a bemenetei, mind a kimenetei tekintetében. Az algoritmus nem tartalmazhat olyan adatokat, amelyeket a magánélet védelmét sértő módon gyűjtöttek össze, és nem adhat olyan eredményeket, amelyek sértik az alanyok magánéletét, még akkor sem, ha rossz szereplők próbálnak ilyen hibákat kikényszeríteni. Ennek hatékony megvalósítása érdekében az adatkezelésnek is gondot kell fordítania. A megfelelő kérdések között szerepel:

  • A képzési vagy következtetési adatok bármelyike ​​használ védett személyes adatokat?
  • Keresztezhetők-e ennek az AI-projektnek az eredményei külső adatokkal oly módon, hogy az sértse az egyén magánéletét?

4. Átláthatóság

Az átláthatóság kiterjed az egyedi eredmények nyomon követhetőségével és az AI-algoritmusok általános magyarázhatóságával kapcsolatos aggályokra. A nyomon követhetőség lehetővé teszi a felhasználó számára, hogy megértse, miért született egyéni döntés. A megmagyarázhatóság azt jelenti, hogy a felhasználó képes megérteni a döntés meghozatalához használt algoritmus alapjait. Arra is utal, hogy a felhasználó képes megérteni, hogy milyen tényezők vesznek részt a döntéshozatali folyamatban az előrejelzésükhöz. A felteendő kérdések a következők:

  • Figyelemmel kíséri és rögzíti a bemeneti adatok minőségét?
  • Kaphat-e egy felhasználó visszajelzést egy bizonyos döntés meghozatalának módjáról, és mit tehet a döntés megváltoztatása érdekében?

5. Sokszínűség, diszkriminációmentesség

Ahhoz, hogy az AI-projektet felelős mesterségesintelligencia-projektnek lehessen tekinteni, az emberek minden alcsoportja számára a lehető legjobban kell működnie. Míg AI torzítás ritkán teljesen megszüntethető, hatékonyan kezelhető. Ez a mérséklésre sor kerülhet az adatgyűjtési folyamat során – annak érdekében, hogy a képzési adatkészletbe sokrétűbb emberek háttere kerüljön be –, és a következtetések levonásakor is felhasználható a különböző csoportok közötti pontosság egyensúlyának elősegítésére. A gyakori kérdések a következők:

  • Kiegyensúlyozta az edzési adatkészletet, amennyire csak lehetséges, hogy az emberek különböző alcsoportjait is magában foglalja?
  • Meghatározza a méltányosságot, majd mennyiségileg értékeli az eredményeket?

6. Társadalmi és környezeti jólét

Egy mesterséges intelligencia projektet az alanyokra és a felhasználókra gyakorolt ​​hatása, valamint a környezetre gyakorolt ​​hatása alapján kell értékelni. Fenn kell tartani az olyan társadalmi normákat, mint a demokratikus döntéshozatal, az értékek tiszteletben tartása és a mesterséges intelligencia-projektektől való függőség megelőzése. Ezenkívül adott esetben figyelembe kell venni az AI-projekt környezetre vonatkozó döntéseinek eredményeit. A szinte minden esetben alkalmazható tényező a szükséges modellek betanításához szükséges energiamennyiség értékelése. Feltehető kérdések:

  • Felmérte a projekt hatását a felhasználókra és az alanyokra, valamint más érdekelt felekre?
  • Mennyi energiát igényel a modell betanítása, és ez mennyiben járul hozzá a szén-dioxid-kibocsátáshoz?

7. felelősségre vonhatóság

Valamelyik személynek vagy szervezetnek felelősnek kell lennie az AI-projekt által meghozott vagy a fejlesztés során tapasztalt cselekvésekért és döntésekért. Olyan rendszert kell kialakítani, amely megfelelő jogorvoslati lehetőséget biztosít azokban az esetekben, amikor hátrányos döntések születnek. A kockázatkezelésre és -csökkentésre is kell egy kis időt és figyelmet fordítani. A megfelelő kérdések a következők:

  • Ellenőrizhetik-e az AI-rendszert harmadik felek kockázat szempontjából?
  • Melyek a mesterséges intelligencia projekttel kapcsolatos főbb kockázatok, és hogyan lehet ezeket mérsékelni?

Az alsó sorban

A felelős mesterséges intelligencia fent vázolt hét értéke kiindulópontot ad egy szervezet felelős AI kezdeményezéséhez. Azok a szervezetek, amelyek a felelős mesterséges intelligencia mellett döntenek, egyre több lehetőséghez jutnak hozzá – például állami szerződésekre pályázhatnak. Azok a szervezetek, amelyek nem alkalmazzák ezeket a gyakorlatokat, jogi, etikai és reputációs kockázatoknak teszik ki magukat.

David Ellison a mesterséges intelligencia vezető kutatója Lenovo.

VentureBeat

A VentureBeat küldetése, hogy digitális városi tér legyen a műszaki döntéshozók számára, ahol ismereteket szerezhetnek a transzformatív technológiáról és a tranzakciókról. Webhelyünk alapvető információkat tartalmaz az adattechnológiákról és -stratégiákról, amelyek útmutatást nyújtanak a szervezet vezetése során. Meghívjuk Önt, hogy legyen közösségünk tagja, hogy elérje:

  • naprakész információk az Ön számára érdekes témákról
  • hírlevelünk
  • zárt gondolat-vezető tartalom és kedvezményes hozzáférés díjazott eseményeinkhez, mint pl Átalakítás 2021: Tudj meg többet
  • hálózati funkciók és így tovább

Legyen tagja

Forrás: https://venturebeat.com/2022/01/15/responsible-ai-will-give-you-a-competitive-advantage/

Időbélyeg:

Még több AI – VentureBeat