Forklarlig AI: 10 Python-biblioteker for å avmystifisere modellens avgjørelser

Forklarlig AI: 10 Python-biblioteker for å avmystifisere modellens avgjørelser

Kilde node: 1913610

Forklarlig AI: 10 Python-biblioteker for å avmystifisere modellens avgjørelser
Bilde av forfatter
 

XAI er kunstig intelligens som lar mennesker forstå resultatene og beslutningsprosessene til modellen eller systemet.

Forklarbarhet før modellering

Forklarbar AI starter med forklarbare data og tydelig, tolkbar funksjonsteknikk.

Modelleringsforklaring

 
Når du velger en modell for et bestemt problem, er det generelt best å bruke den mest tolkbare modellen som likevel oppnår gode prediktive resultater.

Forklaring etter modell

 
Dette inkluderer teknikker som perturbasjon, hvor effekten av å endre en enkelt variabel på modellens utgang analyseres som SHAP-verdier for etter trening.

 
Jeg fant disse 10 Python-bibliotekene for AI-forklaring:

SHAP (SHapley Additive ExPlanations)

 
SHAP er en modellagnostiker og fungerer ved å bryte ned bidraget til hver funksjon og tilskrive en poengsum til hver funksjon.

LIME (lokale tolkbare modellagnostiske forklaringer)

 
LIME er en annen modellagnostisk metode som fungerer ved å tilnærme modellens oppførsel lokalt rundt en spesifikk prediksjon.

ELi5

 
Eli5 er et bibliotek for feilsøking og forklaring av klassifikatorer. Den gir funksjonsviktighetspoeng, så vel som "årsakskoder" for scikit-learn, Keras, xgboost, LightGBM, CatBoost.

Shapash

 
Shapash er et Python-bibliotek som har som mål å gjøre maskinlæring tolkbar og forståelig for alle. Shapash gir flere typer visualisering med eksplisitte etiketter.

Ankere

 
Anchors er en metode for å generere regler som kan tolkes av mennesker som kan brukes til å forklare spådommene til en maskinlæringsmodell.

XAI (forklarlig AI)

 
XAI er et bibliotek for å forklare og visualisere spådommene til maskinlæringsmodeller, inkludert funksjonsviktighetspoeng.

Sammenbrudd

 
BreakDown er et verktøy som kan brukes til å forklare spådommene til lineære modeller. Det fungerer ved å dekomponere modellens utdata til bidraget til hver inngangsfunksjon.

tolke-tekst

 
interpret-text er et bibliotek for å forklare spådommene til naturlige språkbehandlingsmodeller.

iml (tolkbar maskinlæring)

 
iml inneholder for øyeblikket grensesnittet og IO-koden fra Shap-prosjektet, og det vil potensielt også gjøre det samme for Lime-prosjektet.

aix360 (AI Explainability 360)

 
aix360 inkluderer et omfattende sett med algoritmer som dekker forskjellige dimensjoner

OmniXAI

 
OmniXAI (forkortelse for Omni eXplainable AI), tar opp flere problemer med å tolke dommer produsert av maskinlæringsmodeller i praksis.

 
Har jeg glemt noen biblioteker?

 
Kilder

 
Maryam Miradi er en AI og Data Science Lead med en PhD i maskinlæring og dyp læring, spesialisert i NLP og datasyn. Hun har 15+ års erfaring med å lage vellykkede AI-løsninger med en track record på å levere over 40 vellykkede prosjekter. Hun har jobbet for 12 forskjellige organisasjoner i en rekke bransjer, inkludert oppdagelse av finansiell kriminalitet, energi, bank, detaljhandel, e-handel og myndigheter.
 
 

Tidstempel:

Mer fra KDnuggets