Uitlegbare AI: 10 Python-bibliotheken voor het demystificeren van de beslissingen van uw model

Uitlegbare AI: 10 Python-bibliotheken voor het demystificeren van de beslissingen van uw model

Bronknooppunt: 1913610

Uitlegbare AI: 10 Python-bibliotheken voor het demystificeren van de beslissingen van uw model
Afbeelding door auteur
 

XAI is kunstmatige intelligentie waarmee mensen de resultaten en besluitvormingsprocessen van het model of systeem kunnen begrijpen.

Pre-modellering Explainability

Explainable AI begint met verklaarbare data en duidelijke, interpreteerbare feature engineering.

Modellering van uitlegbaarheid

 
Bij het kiezen van een model voor een bepaald probleem is het over het algemeen het beste om het meest interpreteerbare model te gebruiken dat nog steeds goede voorspellende resultaten oplevert.

Uitlegbaarheid na het model

 
Dit omvat technieken zoals perturbatie, waarbij het effect van het veranderen van een enkele variabele op de uitvoer van het model wordt geanalyseerd, zoals SHAP-waarden voor na de training.

 
Ik vond deze 10 Python-bibliotheken voor de uitlegbaarheid van AI:

SHAP (uitleg over SHapley-additieven)

 
SHAP is een model-agnostisch model en werkt door de bijdrage van elke functie op te splitsen en een score toe te kennen aan elke functie.

LIME (lokaal interpreteerbare model-agnostische verklaringen)

 
LIME is een andere model-agnostische methode die werkt door het gedrag van het model lokaal te benaderen rond een specifieke voorspelling.

ELi5

 
Eli5 is een bibliotheek voor het debuggen en uitleggen van classifiers. Het biedt functie-belangrijkheidsscores, evenals "redencodes" voor scikit-learn, Keras, xgboost, LightGBM, CatBoost.

Sjapas

 
Shapash is een Python-bibliotheek die tot doel heeft machine learning voor iedereen interpreteerbaar en begrijpelijk te maken. Shapash biedt verschillende soorten visualisaties met expliciete labels.

Ankers

 
Anchors is een methode voor het genereren van door mensen interpreteerbare regels die kunnen worden gebruikt om de voorspellingen van een machine learning-model uit te leggen.

XAI (verklaarbare AI)

 
XAI is een bibliotheek voor het uitleggen en visualiseren van de voorspellingen van machine learning-modellen, inclusief belangrijkheidsscores.

Afbreken

 
BreakDown is een tool die gebruikt kan worden om de voorspellingen van lineaire modellen te verklaren. Het werkt door de uitvoer van het model te ontleden in de bijdrage van elk invoerkenmerk.

interpreteren-tekst

 
interpret-text is een bibliotheek voor het verklaren van de voorspellingen van natuurlijke taalverwerkingsmodellen.

iml (interpretabel machinaal leren)

 
iml bevat momenteel de interface en IO-code van het Shap-project en zal mogelijk hetzelfde doen voor het Lime-project.

aix360 (AI Uitlegbaarheid 360)

 
aix360 bevat een uitgebreide set algoritmen die verschillende dimensies dekken

OmniXAI

 
OmniXAI (afkorting van Omni eXplainable AI), pakt verschillende problemen aan met het interpreteren van oordelen die worden geproduceerd door machine learning-modellen in de praktijk.

 
Ben ik nog bibliotheken vergeten?

 
bronnen

 
Maryam Miradi is een AI en Data Science Lead met een PhD in Machine Learning en Deep learning, gespecialiseerd in NLP en Computer Vision. Ze heeft meer dan 15 jaar ervaring met het creëren van succesvolle AI-oplossingen en heeft meer dan 40 succesvolle projecten opgeleverd. Ze heeft voor 12 verschillende organisaties in verschillende sectoren gewerkt, waaronder Detecting Financial Crime, Energy, Banking, Retail, E-commerce en Government.
 
 

Tijdstempel:

Meer van KDnuggets