Weitere ähnliche Inhalte
Ähnlich wie 20200605_wids_explainableAI (20)
20200605_wids_explainableAI
- 24. 24
Born Again Trees
▪ 学習で得られた(ブラックボックス)モデルを決定木で近似する手法
▪ 追加の教師データを大量に生成し、追加データを使って決定木を学習する
https://www.stat.berkeley.edu/users/breiman/BAtrees.pdf
学習済みの
(ブラックボックス)モデル
入力 出力
犬
猫
・・・
決定木を構築
ブラックボックスモデルの
出力を目的変数として
決定木を構築
- 25. 25
LIME (Local Interpretable Model-agnostic Explanations)
https://www.kdd.org/kdd2016/papers/files/rfp0573-ribeiroA.pdf
特定の入力点(説明を知りたいデータ)
近似したモデルの決定境界
データ点(左図+)の近傍でランダムサンプリングを行い、
局所的な線形分類器で近似する。
その線形モデルの係数の大小を、各特徴量の重要度とする。
▪ 任意の分類器に対して、特定のデータサンプルを分類するときに有効な特徴量を出力する手法
▪ 画像データを処理する機械学習モデルの解釈性に用いられることが多いようです
- 28. 28
SHAP (SHapley Additive exPlanation)
▪ 任意のブラックボックスモデルを線形モデルで近似するという方針はLIMEと同様
▪ Shapely値を利用して変数の寄与を説明する手法
▪ テーブルデータを処理する機械学習モデルの解釈性に用いられることが多いようです
https://papers.nips.cc/paper/7062-a-unified-approach-to-interpreting-model-predictions.pdf
モデルの予測値 特徴量 報酬の大きさ=寄与の大きさ
⇒ 協力ゲームにおいて、報酬を各プレイヤーに対して公平に分配するアイデア
- 30. 30
Example 2/2:0~9の画像分類
0 1 2 3 4 5 6 7 8 9
入
力
画
像
https://github.com/slundberg/shap
←各クラス
0と予測する際は、真ん中の空白を重視している
4と予測する際は、上部の接続を重視している. 上部の接続がないため予測クラスは
9ではなく4になる
- 33. 33
TCAV (Testing with Concept Activation Vectors)
▪ 予測クラスの概念(色、性別、人種など)の重要度を示す
▪ 各クラスに対する説明を生成するので、人間にわかりやすい説明性を持つ
https://qiita.com/_rio_/items/2c3eca260beb1a86a711
https://arxiv.org/pdf/1711.11279.pdf