Razložljiv AI: 10 knjižnic Python za demistificiranje odločitev vašega modela

Razložljiv AI: 10 knjižnic Python za demistificiranje odločitev vašega modela

Izvorno vozlišče: 1913610

Razložljiv AI: 10 knjižnic Python za demistificiranje odločitev vašega modela
Slika avtorja
 

XAI je umetna inteligenca, ki ljudem omogoča razumevanje rezultatov in procesov odločanja modela ali sistema.

Razložljivost pred modeliranjem

Razložljiva umetna inteligenca se začne z razložljivimi podatki in jasnim, razložljivim inženiringom funkcij.

Razložljivost modeliranja

 
Pri izbiri modela za določeno težavo je na splošno najbolje uporabiti model, ki ga je najbolj razlagati in ki še vedno dosega dobre napovedne rezultate.

Razložljivost po modelu

 
To vključuje tehnike, kot je motnja, kjer se analizira učinek spremembe ene spremenljivke na izhod modela, kot so vrednosti SHAP za po usposabljanju.

 
Našel sem teh 10 knjižnic Python za razložljivost AI:

SHAP (SHapley Additive Explanations)

 
SHAP je agnostik modela in deluje tako, da razčleni prispevek vsake funkcije in vsaki lastnosti pripiše oceno.

LIME (lokalno razlagalne modelsko-agnostične razlage)

 
LIME je še ena metoda agnostike modela, ki deluje tako, da približa vedenje modela lokalno glede na določeno napoved.

ELi5

 
Eli5 je knjižnica za odpravljanje napak in razlago klasifikatorjev. Zagotavlja ocene pomembnosti funkcij in "kode vzrokov" za scikit-learn, Keras, xgboost, LightGBM, CatBoost.

Šapaš

 
Shapash je knjižnica Python, katere cilj je narediti strojno učenje razložljivo in razumljivo vsem. Shapash ponuja več vrst vizualizacij z eksplicitnimi oznakami.

sidra

 
Sidra so metoda za ustvarjanje pravil, ki jih je mogoče razumeti s človekom in se lahko uporabijo za razlago napovedi modela strojnega učenja.

XAI (razložljiv AI)

 
XAI je knjižnica za razlago in vizualizacijo napovedi modelov strojnega učenja, vključno z rezultati pomembnosti funkcij.

Zlomiti se

 
BreakDown je orodje, ki ga je mogoče uporabiti za razlago napovedi linearnih modelov. Deluje tako, da izhod modela razgradi na prispevek vsake vhodne funkcije.

razlaga-besedilo

 
interpret-text je knjižnica za razlago napovedi modelov obdelave naravnega jezika.

iml (interpretabilno strojno učenje)

 
iml trenutno vsebuje vmesnik in kodo IO iz projekta Shap in potencialno bo storil enako za projekt Lime.

aix360 (AI Explainability 360)

 
aix360 vključuje obsežen nabor algoritmov, ki pokrivajo različne dimenzije

OmniXAI

 
OmniXAI (okrajšava za Omni eXplainable AI) obravnava več težav pri razlagi sodb, ki jih ustvarijo modeli strojnega učenja v praksi.

 
Sem pozabil kakšno knjižnico?

 
Viri

 
Maryam Miradi je vodja umetne inteligence in podatkovne znanosti z doktoratom iz strojnega učenja in globokega učenja, specializiran za NLP in računalniški vid. Ima več kot 15 let izkušenj z ustvarjanjem uspešnih rešitev AI z zgodovino izvajanja več kot 40 uspešnih projektov. Delala je za 12 različnih organizacij v različnih panogah, vključno z odkrivanjem finančnega kriminala, energetiko, bančništvom, maloprodajo, e-trgovino in vlado.
 
 

Časovni žig:

Več od KDnuggets