Explainable AI: モデルの決定をわかりやすく説明する 10 の Python ライブラリ

Explainable AI: モデルの決定をわかりやすく説明する 10 の Python ライブラリ

ソースノード: 1913610

Explainable AI: モデルの決定をわかりやすく説明する 10 の Python ライブラリ
著者による画像
 

XAI は、人間がモデルまたはシステムの結果と意思決定プロセスを理解できるようにする人工知能です。

モデリング前の説明可能性

説明可能な AI は、説明可能なデータと、明確で解釈可能な特徴エンジニアリングから始まります。

モデリングの説明可能性

 
特定の問題に対してモデルを選択するときは、一般的に、良好な予測結果が得られる最も解釈しやすいモデルを使用するのが最善です。

モデル後の説明可能性

 
これには、トレーニング後の SHAP 値など、モデルの出力に対する単一変数の変更の影響が分析される摂動などの手法が含まれます。

 
AI の説明可能性のために、次の 10 個の Python ライブラリを見つけました。

SHAP (SHApley Additive exPlanations)

 
SHAP はモデルにとらわれず、各機能の寄与を分類し、各機能にスコアを割り当てることによって機能します。

LIME (ローカルで解釈可能なモデルに依存しない説明)

 
LIME は、モデルの動作を特定の予測の周囲で局所的に近似することによって機能する、モデルに依存しないもう XNUMX つの方法です。

ELi5

 
Eli5 は、分類器をデバッグおよび説明するためのライブラリです。 機能の重要度スコアと、scikit-learn、Keras、xgboost、LightGBM、CatBoost の「理由コード」を提供します。

シャプシュ

 
Shapash は、機械学習を誰にとっても解釈可能で理解しやすいものにすることを目的とした Python ライブラリです。 Shapash は、明示的なラベルを使用していくつかのタイプの視覚化を提供します。

アンカー

 
アンカーは、機械学習モデルの予測を説明するために使用できる、人間が解釈できるルールを生成する方法です。

XAI(説明可能なAI)

 
XAI は、特徴重要度スコアを含む機械学習モデルの予測を説明および視覚化するためのライブラリです。

壊す

 
BreakDown は、線形モデルの予測を説明するために使用できるツールです。 モデルの出力を各入力機能の寄与に分解することによって機能します。

解釈テキスト

 
interpret-text は、自然言語処理モデルの予測を説明するためのライブラリです。

iml (解釈可能な機械学習)

 
iml には現在、Shap プロジェクトのインターフェイスと IO コードが含まれており、Lime プロジェクトでも同じことが行われる可能性があります。

aix360 (AI 説明可能性 360)

 
aix360 には、さまざまな次元をカバーする包括的な一連のアルゴリズムが含まれています

オムニザイ

 
OmniXAI (Omni eXplainable AI の略) は、実際に機械学習モデルによって生成された判断を解釈する際のいくつかの問題に対処します。

 
ライブラリを忘れましたか?

 
ソース

 
マリアム・ミラディ 機械学習と深層学習の博士号を取得した AI とデータ サイエンスのリーダーであり、NLP とコンピューター ビジョンを専門としています。 彼女は、成功した AI ソリューションを作成して 15 年以上の経験があり、40 以上の成功したプロジェクトを提供した実績があります。 彼女は、金融犯罪の検出、エネルギー、銀行、小売、電子商取引、政府など、さまざまな業界の 12 の異なる組織で働いてきました。
 
 

タイムスタンプ:

より多くの KDナゲット