SlideShare a Scribd company logo
1 of 25
協力ゲーム理論でXAI(説明可能なAI)を目指す
SHAP (Shapley Additive exPlanation)
貢献度に応じた最適な分配方法をXAIに利用
今回紹介する内容
● 機械学習を説明するExplanation Model
● LIMEなど既存手法を一般化したAdditive Feature Attribution Methods
● 協力ゲーム理論で貢献度に応じて報酬を決めるShapley Value
● Shapley Valueを機械学習の解釈に応用したSHAP
● SHAP値計算爆発と近似
● 参考論文
○ A Unified Approach to Interpreting Model Predictions
■ 著者: Scott M. Lundberg, Su-In Lee
■ 投稿: Advances in Neural Information Processing Systems (2017), pp. 4765-4774
■ 引用: 4074件 (2021/8/30 時点)
Explanation Model
元のモデルを解釈しやすいモデルとして表す
複雑なモデル (e.g. アンサンブル, DNN)
予測結果
単純で解釈しやすいモデル (e.g. 線形)
予測結果
複雑で解釈できない シンプルで解釈できる
Explanation Modelで近似
Additive Feature Attribution Methods: 既存の手法の一般化
● LIMEなどの既存手法は、二値変数の線型結合によって元モデルの予測値との
近似している
○ LIME, DeepLIFT, Layer-Wise Relevance Propagation, Classic Shapley Value Estimation
特徴量1
特徴量2
特徴量3
特徴量4
線形結合を元にしたExplanation Model
重要度中
重要度小
重要度小
重要度大
Additive Feature Attribution Methods
Explanation Modelとして好ましい性質
● Local Accuracy: 局所的に元のモデルと一致する
● Missingness: 予測に関係のなかった特徴の重要度は0となる
● Consistency: あるモデルにおいて他のモデルより影響の大きい特徴量は重要
度も高くなる
Shapley Valueを用いたSHAP
協力ゲーム理論
複数人でタスクをこなしたときに得られた報酬をどのように分配するか?
e.g. チームで勝ち取った賞金の分配
貢献度に応じて公正に分配する方法が「Shapley Value」
(貢献度を考慮しないのであれば等分配でもよい)
A
B
C
2人で報酬を分ける場合は単純
A, Bの2人で分ける場合
● A1人で獲得できる報酬 v({A}) = 2
● B1人で獲得できる報酬 v({B}) = 3
● A, Bの2人で獲得できる報酬 v({A, B}) = 10 → この報酬をA, Bでどのように分ける?
● 複数人でタスクをこなした場合、一人ひとりの報酬を足したとき以上の報酬が手に入れられ
る v({A}) + v({B}) ≦ v({A, B})
A
B
2
3
A B 10
Aは1人で2で、Bは1人で3の
報酬を得られるのだから、
2対3、つまりAは4、Bは6
で分ければ貢献度を考慮し
た分配となる
Shapley Value: 3人で報酬を分ける
A, Bの2人で分ける場合
● A, B, Cそれぞれが1人で獲得できる報酬 v({A}) = 2, v({B}) = 3, v({C}) = 4
● 2人で獲得できる報酬 v({A, B}) = 12, v({B, C}) = 8, v({A, C}) = 9
● 3人で獲得できる報酬 v({A, B, C}) = 15
A
B
2
3
A B 12
C
B 8
A 9
C
A
B
C
15
4
C
Shapley Value: 単純な分割は平等じゃない
● Cは単体では一番よい報酬を得られる
● しかし、2人チームでだと報酬はそこまで得られない
● チームで得た報酬を個人のときのパフォーマンスだけで判断するのは不平等
A
B
2
3
A B 12
C
B 8
A 9
C
A
B
C
15
4
C
貢献を数値化
Cが加わることにより得られる報酬の増加 (限界貢献度)
C A 9: A (v({A}) = 2) にCが協力することで+7
B 8: B (v({B}) = 3) にCが協力することで+5
C
A B C 15: A, B (v({A, B}) = 12)にCが協力することで+3
4: 誰もいない状態(v({}) = 0)からCが増えて+4
C
限界貢献度と順序
限界貢献度は組合せではなく、順列なので順番を考慮に入れる
A
B C
C B A
C A B
C
A B
4
C
A B C 15
Cが最初に加わるパターン
Cが最後に加わるパターン
限界貢献度同じだが期待値計算には
A, Bの順番が入れ替わった場合が必要
限界貢献度の期待値: Shapley Value
C B A
C A B
A
B C
C
A B
C
B A
B
A C
Cが最初に貢献するパターンのCの限界貢献度
● C → B → A: 4
● C → A → B: 4
Cが2番目に貢献するパターンのCの限界貢献度
● B → C → A: v({B, C}) - v({B}) = 8 - 3 = 5
● A → C → B: v({A, C}) - v({C}) = 9 - 2 = 7
Cが最初に貢献するパターンのCの限界貢献度
● C → B → A: v({A, B, C}) - (v{A, B}) = 15 - 12 = 3
● C → A → B: v({A, B, C}) - (v{A, B}) = 15 - 12 = 3
Cの限界貢献度の期待値 = (4 + 4 + 5 + 7 + 3 + 3)/6 = 13/3
SHAP (Shapley Additive exPlanation)
A
B
C
特徴量1
特徴量2
特徴量3
予測結果
貢献度に応じて公正に分配する方法Shapley Valueを
特徴量の予測への貢献に応用したものがSHAP
SHAPの計算量
限界貢献度を計算するためには、特徴量全ての組合せで予測を実施する必要がある
特徴量1 特徴量2 特徴量3 ・・・ 特徴量n
2^n個のモデルが必要となり計算コストが高く現実的でない
予測値の条件付き期待値で近似する
SHAP値の近似手法
● Model-Agnostic Approximations (モデルに依存しない)
○ Shapley sampling values method
○ Kernel SHAP (LIME + SHAP)
● Model-Specific Approximations (特定のモデルに特化)
○ Linear SHAP
○ Deep SHAP (DeepLIFT + SHAP)
まとめ
● 複雑なモデルでは解釈が難しいため、単純なExplanation Modelを用いて近似
し解釈可能にする
● LIMEなど既存手法は線形結合のモデルを使ったAdditive Feature Attribution
Methodsとして一般化できる
● 協力ゲーム理論で貢献度に応じて報酬を決めるShapley Valueでは、加わった
人の限界貢献度の期待値を公正な分配の1つとして利用する
● SHAPでは、特徴量に対して重要度を公正に分配する方法としてShapley
Valueを使う
● SHAPを正確に計算すると計算量が爆発するため、条件付き期待値を使って近
似値を計算する
チャンネル紹介
● チャンネル名: 【経営xデータサイエンスx開発】西岡 賢一郎のチャンネル
● URL: https://www.youtube.com/channel/UCpiskjqLv1AJg64jFCQIyBg
● チャンネルの内容
○ 経営・データサイエンス・開発に関する情報を発信しています。
○ 例: アジャイル開発、データパイプライン構築、AIで使われるアルゴリズム4種類など
● noteでも情報発信しています → https://note.com/kenichiro
APPENDIX
既存手法の共通点
● 解釈可能な二値変数の線型結合による元モデルの予測値との近似
○ 手法例) LIME, DeepLIFT, Layer-Wise Relevance Propagation, Classic Shapley Value Estimation
モデルgの入力z’ は元の特徴を解釈可能な表現に置き換えたもの
説明モデルが満たすべき条件
局所近似したモデルの精度
元の入力が0ならそれに対応する係数も0
ある特徴量の寄与が増加または同じとなる
ようにモデルを変更(f→f’)した時、その係数
も同じく増加または同じとなる
Shapley Value とは?
● 協力ゲーム理論において、複数プレイヤーによって得られた報酬を
各プレイヤーに公正に分配する際に使用する値
(例) 3人のプレイヤーA, B, C が協力して
ゲームに挑戦し、表に示す報酬が
得られる場合について考える
→ 全員参加した場合、報酬をどのように
分配すべきか?
参加したプレイヤー 報酬 (万円)
A 4
B 6
C 10
A, B 16
A, C 22
B, C 30
A, B, C 60
Shapley Value とは?
→ “限界貢献度”を考える
→ 各プレイヤーがゲームに参加した時、追加でどのくらい報酬が増えるか
プレイヤーの参加順 各プレイヤーの限界貢献度
A B C
A → B → C 4 12 44
A → C → B 4 38 18
B → A → C 10 6 44
B → C → A 30 6 24
C → A → B 12 38 10
C → B → A 30 20 10
プレイヤーの参加前後での報酬の増加分
= 限界貢献度
A: 誰もいない → A (4 - 0 = 4)
B: Aのみ → A, B (16 - 4 = 12)
C: A, B → A, B, C (60 - 16 = 44)
限界貢献度の期待値
→ 各プレイヤーのShapley Value
→ A: 15, B: 20, C: 25
SHAP (Shapley Additive exPlanation)
● 予測結果に対する特徴量の寄与具合を計算
● 貢献度を計算するには、2^M 個の予測モデルが必要
計算コストが高く現実的でないため、「予測値の条件付き期待値」で近似
特徴 i に関するSHAP値 φ
: (特徴 i を加える前の順列) × (特徴 i を加えた後の順列)
: 全特徴量 M 個の順列
: (特徴 i を加えた時の予測値) - (特徴 i を加える前の予測値) = 限界貢献度
SHAP (Shapley Additive exPlanation)
E[f(z)]: 何も特徴をしらない時に予測される基本値
f(x): モデルの出力
, : E[f(x)] から f(x) までどのように予測が変化するかを示している
→ SHAP値は考えられる全ての順序での φ_i の期待値
→ 厳密な計算は困難であり、モデルによっていくつかの近似手法が存在
既存手法との比較実験
● 2種類の決定木モデルで評価
○ A: 1つの入力に対し、10個全ての特徴を説明に使用 (dense)
○ B: 入力に含まれる100個の特徴のうち、3つのみを説明に使用 (sparse)
○ ある一つの特徴に対してモデルの評価数を増やした時の特徴重要度の推移を示す
(Kernel SHAP)
LIMEはshap値の真値と
離れている
SHAPはよく近似できている
既存のsampling methodは多くのサンプル数が必要

More Related Content

What's hot

強化学習その2
強化学習その2強化学習その2
強化学習その2nishio
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
 
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証Masaharu Kinoshita
 
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向Koichiro Mori
 
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​SSII
 
画像の基盤モデルの変遷と研究動向
画像の基盤モデルの変遷と研究動向画像の基盤モデルの変遷と研究動向
画像の基盤モデルの変遷と研究動向nlab_utokyo
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative ModelsDeep Learning JP
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展Shiga University, RIKEN
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜Jun Okumura
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデルKei Nakagawa
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and EditingDeep Learning JP
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)Deep Learning JP
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Surveytmtm otm
 
Deep Learningによる超解像の進歩
Deep Learningによる超解像の進歩Deep Learningによる超解像の進歩
Deep Learningによる超解像の進歩Hiroto Honda
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
合成変量とアンサンブル:回帰森と加法モデルの要点
合成変量とアンサンブル:回帰森と加法モデルの要点合成変量とアンサンブル:回帰森と加法モデルの要点
合成変量とアンサンブル:回帰森と加法モデルの要点Ichigaku Takigawa
 

What's hot (20)

強化学習その2
強化学習その2強化学習その2
強化学習その2
 
正準相関分析
正準相関分析正準相関分析
正準相関分析
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証
 
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向
 
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
 
画像の基盤モデルの変遷と研究動向
画像の基盤モデルの変遷と研究動向画像の基盤モデルの変遷と研究動向
画像の基盤モデルの変遷と研究動向
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
 
Deep Learningによる超解像の進歩
Deep Learningによる超解像の進歩Deep Learningによる超解像の進歩
Deep Learningによる超解像の進歩
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
合成変量とアンサンブル:回帰森と加法モデルの要点
合成変量とアンサンブル:回帰森と加法モデルの要点合成変量とアンサンブル:回帰森と加法モデルの要点
合成変量とアンサンブル:回帰森と加法モデルの要点
 

More from 西岡 賢一郎

Amazon SageMaker Foundation Modelsで事前学習済みモデルを利用する
Amazon SageMaker Foundation Modelsで事前学習済みモデルを利用するAmazon SageMaker Foundation Modelsで事前学習済みモデルを利用する
Amazon SageMaker Foundation Modelsで事前学習済みモデルを利用する西岡 賢一郎
 
Amazon SageMaker Ground Truthを使って手動のラベル付けを簡略化する
Amazon SageMaker Ground Truthを使って手動のラベル付けを簡略化するAmazon SageMaker Ground Truthを使って手動のラベル付けを簡略化する
Amazon SageMaker Ground Truthを使って手動のラベル付けを簡略化する西岡 賢一郎
 
Amazon SageMakerのNotebookからJobを作成する
Amazon SageMakerのNotebookからJobを作成するAmazon SageMakerのNotebookからJobを作成する
Amazon SageMakerのNotebookからJobを作成する西岡 賢一郎
 
リモートワークで知っておきたい コミュニケーション時の過大な期待
リモートワークで知っておきたい コミュニケーション時の過大な期待リモートワークで知っておきたい コミュニケーション時の過大な期待
リモートワークで知っておきたい コミュニケーション時の過大な期待西岡 賢一郎
 
リモートワークで意識すべき7つのこと
リモートワークで意識すべき7つのことリモートワークで意識すべき7つのこと
リモートワークで意識すべき7つのこと西岡 賢一郎
 
Amazon SageMaker ML Governance 3つの機能紹介
Amazon SageMaker ML Governance 3つの機能紹介Amazon SageMaker ML Governance 3つの機能紹介
Amazon SageMaker ML Governance 3つの機能紹介西岡 賢一郎
 
Feature StoreのOnline StoreとOffline Storeの違いについて理解する
Feature StoreのOnline StoreとOffline Storeの違いについて理解するFeature StoreのOnline StoreとOffline Storeの違いについて理解する
Feature StoreのOnline StoreとOffline Storeの違いについて理解する西岡 賢一郎
 
機械学習の特徴量を管理するAmazon SageMaker Feature Store
機械学習の特徴量を管理するAmazon SageMaker Feature Store機械学習の特徴量を管理するAmazon SageMaker Feature Store
機械学習の特徴量を管理するAmazon SageMaker Feature Store西岡 賢一郎
 
機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで
機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで
機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで西岡 賢一郎
 
Amazon SageMakerでカスタムコンテナを使った学習
Amazon SageMakerでカスタムコンテナを使った学習Amazon SageMakerでカスタムコンテナを使った学習
Amazon SageMakerでカスタムコンテナを使った学習西岡 賢一郎
 
Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成
Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成
Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成西岡 賢一郎
 
Amazon AthenaでSageMakerを使った推論
Amazon AthenaでSageMakerを使った推論Amazon AthenaでSageMakerを使った推論
Amazon AthenaでSageMakerを使った推論西岡 賢一郎
 
Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析
Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析
Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析西岡 賢一郎
 
TorchDataチュートリアル解説
TorchDataチュートリアル解説TorchDataチュートリアル解説
TorchDataチュートリアル解説西岡 賢一郎
 
Amazon SageMaker JumpStart
Amazon SageMaker JumpStartAmazon SageMaker JumpStart
Amazon SageMaker JumpStart西岡 賢一郎
 
Amazon SageMaker Studio Lab紹介
Amazon SageMaker Studio Lab紹介Amazon SageMaker Studio Lab紹介
Amazon SageMaker Studio Lab紹介西岡 賢一郎
 
Amazon SageMaker Canvasを使ったノーコード機械学習
Amazon SageMaker Canvasを使ったノーコード機械学習Amazon SageMaker Canvasを使ったノーコード機械学習
Amazon SageMaker Canvasを使ったノーコード機械学習西岡 賢一郎
 
PMFを目指すプロダクト開発組織が組織拡大するときににやるべきこと
PMFを目指すプロダクト開発組織が組織拡大するときににやるべきことPMFを目指すプロダクト開発組織が組織拡大するときににやるべきこと
PMFを目指すプロダクト開発組織が組織拡大するときににやるべきこと西岡 賢一郎
 
H2O Waveを使ったAIアプリケーション作成入門
H2O Waveを使ったAIアプリケーション作成入門H2O Waveを使ったAIアプリケーション作成入門
H2O Waveを使ったAIアプリケーション作成入門西岡 賢一郎
 

More from 西岡 賢一郎 (20)

Amazon SageMaker Foundation Modelsで事前学習済みモデルを利用する
Amazon SageMaker Foundation Modelsで事前学習済みモデルを利用するAmazon SageMaker Foundation Modelsで事前学習済みモデルを利用する
Amazon SageMaker Foundation Modelsで事前学習済みモデルを利用する
 
Amazon SageMaker Ground Truthを使って手動のラベル付けを簡略化する
Amazon SageMaker Ground Truthを使って手動のラベル付けを簡略化するAmazon SageMaker Ground Truthを使って手動のラベル付けを簡略化する
Amazon SageMaker Ground Truthを使って手動のラベル付けを簡略化する
 
Amazon SageMakerのNotebookからJobを作成する
Amazon SageMakerのNotebookからJobを作成するAmazon SageMakerのNotebookからJobを作成する
Amazon SageMakerのNotebookからJobを作成する
 
リモートワークで知っておきたい コミュニケーション時の過大な期待
リモートワークで知っておきたい コミュニケーション時の過大な期待リモートワークで知っておきたい コミュニケーション時の過大な期待
リモートワークで知っておきたい コミュニケーション時の過大な期待
 
リモートワークで意識すべき7つのこと
リモートワークで意識すべき7つのことリモートワークで意識すべき7つのこと
リモートワークで意識すべき7つのこと
 
Amazon SageMaker ML Governance 3つの機能紹介
Amazon SageMaker ML Governance 3つの機能紹介Amazon SageMaker ML Governance 3つの機能紹介
Amazon SageMaker ML Governance 3つの機能紹介
 
Feature StoreのOnline StoreとOffline Storeの違いについて理解する
Feature StoreのOnline StoreとOffline Storeの違いについて理解するFeature StoreのOnline StoreとOffline Storeの違いについて理解する
Feature StoreのOnline StoreとOffline Storeの違いについて理解する
 
機械学習の特徴量を管理するAmazon SageMaker Feature Store
機械学習の特徴量を管理するAmazon SageMaker Feature Store機械学習の特徴量を管理するAmazon SageMaker Feature Store
機械学習の特徴量を管理するAmazon SageMaker Feature Store
 
機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで
機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで
機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで
 
Amazon SageMakerでカスタムコンテナを使った学習
Amazon SageMakerでカスタムコンテナを使った学習Amazon SageMakerでカスタムコンテナを使った学習
Amazon SageMakerでカスタムコンテナを使った学習
 
Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成
Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成
Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成
 
Amazon AthenaでSageMakerを使った推論
Amazon AthenaでSageMakerを使った推論Amazon AthenaでSageMakerを使った推論
Amazon AthenaでSageMakerを使った推論
 
Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析
Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析
Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析
 
未来のカタチ x AI
未来のカタチ x AI未来のカタチ x AI
未来のカタチ x AI
 
TorchDataチュートリアル解説
TorchDataチュートリアル解説TorchDataチュートリアル解説
TorchDataチュートリアル解説
 
Amazon SageMaker JumpStart
Amazon SageMaker JumpStartAmazon SageMaker JumpStart
Amazon SageMaker JumpStart
 
Amazon SageMaker Studio Lab紹介
Amazon SageMaker Studio Lab紹介Amazon SageMaker Studio Lab紹介
Amazon SageMaker Studio Lab紹介
 
Amazon SageMaker Canvasを使ったノーコード機械学習
Amazon SageMaker Canvasを使ったノーコード機械学習Amazon SageMaker Canvasを使ったノーコード機械学習
Amazon SageMaker Canvasを使ったノーコード機械学習
 
PMFを目指すプロダクト開発組織が組織拡大するときににやるべきこと
PMFを目指すプロダクト開発組織が組織拡大するときににやるべきことPMFを目指すプロダクト開発組織が組織拡大するときににやるべきこと
PMFを目指すプロダクト開発組織が組織拡大するときににやるべきこと
 
H2O Waveを使ったAIアプリケーション作成入門
H2O Waveを使ったAIアプリケーション作成入門H2O Waveを使ったAIアプリケーション作成入門
H2O Waveを使ったAIアプリケーション作成入門
 

Recently uploaded

LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Hiroshi Tomioka
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 

Recently uploaded (11)

LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 

協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)

Editor's Notes

  1. 今回は協調ゲーム理論で説明可能なAIを目指すSHAPについて解説します。 機械学習のアルゴリズムが複雑化し、ブラックボックス化が進む中で、機械学習の中身を明らかにする説明可能なAIが注目されています。 説明可能なAIのアルゴリズムとして過去にLIMEという手法を紹介しましたが、今回はLIMEと並んで有名な手法であるSHAPを取り扱います。 説明可能なAIが必要になる背景や、解釈性の種類などについてはLIMEの動画で解説しているので、そちらもぜひ御覧ください。 このチャンネルは機械学習の様々な手法についても解説しています。 興味のある方はチャンネル登録をお願いします。
  2. 今回は、機械学習を説明するExplanation Modelとはなにかをまず説明し、次にLIMEなど既存手法を一般化したAdditive Feature Attribution Methodsについて説明します。 次に、ここから今回の動画のメインテーマである協調ゲーム理論で使われるShapley Valueがどのように計算されるかを解説します。 このShapley ValueはSHAPのアルゴリズムの基本となるものなので、理解しやすいようにできる限り丁寧に解説します。 そして、Shapley Valueを機械学習の解釈に用いたSHAPを解説し、計算が爆発してしまうSHAPの性質とその近似について簡単にお話します。 今回参考にした論文は、A Unified Approach to Interpreting Model Predictionsという論文で、引用件数が4000件超えと機械学習の研究でも有名な論文となっています。 それではやっていきましょう。
  3. まず最初にExplanation Modelとはなにかについて説明します。 最近良く使われているディープラーニングなどのモデルは、人間にとって複雑すぎてその挙動を解釈することが難しくなっています。 そのため、複雑なモデルと似たような挙動をする簡単なモデルで近似してモデルを解釈しやすくします。 この解釈しやすいモデルがExplanation Modelとなっており、線形回帰など単純なモデルがよく使われます。 もちろん、元のモデルが解釈しやすいものであれば、Explanation modelは元のモデルそのものということになります。
  4. Explanation Modelを提案しているLIMEなどの既存の手法は、人間が簡単に理解できる線形結合によるモデルを使用しているので、Additive Feature Attribution Methodsと呼ばれるものとして一般化することができます。 Additive Feature Attribution Methodsという名前は今は覚えなくてもいいですが、線形モデルによる近似がよく行われていることを理解しておきましょう。
  5. ここまでExplanation Modelが単純な手法で解釈しやすいものになっており、既存の手法はだいたい線形結合の手法になっていることを説明しました。 ここで、Explanation Modelとして好ましい3つの性質についてお話します。 Explanation ModelはLocal Accuracy, Missigness, Consistencyの3つの性質をもつことが好ましいと言われています。 1つめのLocal Accuracyとは、局所的に元のモデルと一致する性質です。 2つめのMissingnessは予測に関係のない特徴の重要度が0になる性質です。 3つめのConsistensyは、少しわかりにくいのですが、複数モデルを比較したとき、あるモデルにおいて、特定の特徴量が他のモデルよりも影響が大きい場合は、その特徴量の重要度が高くなるという性質です。 そして、これら3つの性質を満たすものが、今回紹介するShapley Valueを用いたSHAPとなります。
  6. ここからはSHAPで使われているShapley Valueについて説明します。 Shapley Valueは協力ゲーム理論で使われる報酬分配方法の1つです。 協力ゲーム理論では、複数人でタスクをこなしたときに、得られる報酬をどのように分配するのがよいかを検討します。 報酬を分配する一番単純な方法は、参加した全員で等分割する方法です。 しかし、等分割する方法では、タスクに貢献しないでサボっていた人にも同じ報酬が与えられるので公正ではありません。 そこで、報酬を分配する公正な方法の1つとしてあるのが、貢献度に応じた分配方法であるShapley Valueです。 A、B、Cの三人で報酬をわけるときに、Aさんが一番貢献したからAさんの報酬を高くするというようなものです。
  7. 複数人で報酬を分けるときのイメージを少人数で報酬を分配する例で説明します。 タスクをAさん1人でやった場合、Aさんは2の報酬が得られて、Bさん1人でやった場合、Bさんは3の報酬を得られるとします。 次に、AさんとBさんの二人でタスクをやったときに10の報酬が得られるとすると、この報酬をAさんとBさんでどのように分配すればいいでしょうか。 Aさんは1人で2の報酬が得られる実力、Bさんは1人で3の報酬を得られる実力ということで、2対3に分配して、Aさんは4、Bさんは6の報酬を得れば貢献度を考慮できていると言えます。 ちなみにこの協調ゲームでは、複数人でタスクをこなしたときに、その部分集合でタスクをこなしたとき以上の報酬が手に入れられるという条件が前提として入っていることに注意してください。
  8. 次は人数を増やして3人で報酬を分ける場合を考えてみましょう。 まず1人で得られる報酬はAさんは2、Bさんは3、Cさんは4だとします。 そして2人で得られる報酬は、AさんとBさんのペアの場合10、BさんとCさんのペアの場合8、CさんとAさんのペアの場合9とします。 最後に、AさんBさんCさんの全員でタスクをこなしたときに得られる報酬を15であるとします。
  9. 今回の場合も、2人で報酬を分ける場合と同様にそれぞれが1人で得られる報酬の比率で報酬を分けることもできます。 その場足、Cさんは単体で一番報酬が高い4を得ることができるので、Cさんが一番高い報酬が得られるということになります。 しかし、2人ペアをみたとき、Cさんが加わったペアはA, Bだけのペアよりも得られる報酬が少なくなっています。 個人で報酬を大量に得られるCさんは、チームだと大きなパフォーマンスが得られないという状況です。 つまり、チームで得られた報酬を、チームプレイが不得意なCさんに単体での実力が高いという理由で一番高い報酬を与えることは、公正ではないのではという疑問が出てくるということです。
  10. ここで、出てくるのが、特定の人が増えることによって、どのくらい報酬が増えるかという限界貢献度という考え方です。 限界貢献度では、Cさんが加わることによって得られる報酬の増加のパターンを全て列挙します。 まず一番単純なものは、誰もいない状態からCさんが加わった場合です。 この場合、誰もいない場合は報酬が0だったものがCさんが加わることで4の報酬が増えます。 この増えた報酬である4が限界貢献度と言われるものです。 次に、Bさん1人にCさんが加わるパターンでは、Bさん1人のときに得られていた報酬3からBさんとCさんの2人で得られる報酬8になるので、この場合のCさんの限界貢献度は5となります。 同様に、AさんにCさんが加わるパターンでは、Aさん1人のときに得られていた報酬2からAさんとCさんの2人で得られる報酬9になるので、この場合のCさんの限界貢献度は7となります。 最後に、AさんとBさんのペアにCさんが加わる場合は、AさんとBさんの2人で得られていた報酬12にCさんが協力して報酬が15になるので、この場合のCさんの限界貢献度は3となります。 これで、Cさんが加わることでどのくらい報酬が増えるかの全ての組合せを網羅できました。
  11. ここで、限界貢献度のパターンを考えるときに1つだけ注意点があります。 限界貢献度では、あとからCさんが加わるという条件を足したため、組合せから順序に変わっています。 そのため、限界貢献度の期待値を計算するためには、どの順番でだれが加わったかを全て考慮する必要があります。 もともとの問題設定が組合せの問題だったのですが、順序を考慮した問題に置き換えているため、全ての順序のパターンを網羅しないと期待値計算がおかしくなるということです。 そのため、最初にCさんが加わるパターンだと、C, B, AとC, A, Bの2つのパターンを考慮する必要があります。 どちらもCさんの限界貢献度は4となります。 もう一つは、最後にCさんが加わるパターンで、B, A, CとA, B, Cの2つのパターンを考慮する必要があります。 この場合のCさんの限界貢献度はどちらも3となります。
  12. Cさんの全ての限界貢献度のパターンを列挙するとこのようになります。 Cさんが最初に加わる、C, B, AとC, A, BにおけるCさんの限界貢献度はどちらも4。 Cさんが2番目に加わる、B, C, AとA, C, BにおけるCさんの限界貢献度はそれぞれ5と7。 Cが最後に加わる、B, A, CとA, B, CにおけるCさんの限界貢献度はどちらも3となります。 これらを平均したCさんの限界貢献度の期待値は、13/3になります。 もともと3人で等分配したときの報酬が15わる3の5であるのに対して、13/3は小さい値なので、等分配よりも小さい報酬となっていることがわかります。 Cさん単体でタスクをこなしたときに得られる報酬が高いから一番高い報酬を払う場合と、逆の結果になっているということです。 このように限界貢献度を利用した報酬がShapleyValueと呼ばれるものです。
  13. では、協調ゲーム理論のShapley Valueをどのように機械学習の解釈に使えばよいのでしょうか。 Shapley Valueを理解していれば実は簡単で、A, B, Cと報酬を分配していたものを特徴量に置き換え、予測に対しての特徴量の重要度を分配していきます。 SHAPの詳細まで理解しなくても良いという人であれば、SHAPでは重要度を協調ゲーム理論における公正な分配方法で決定していると覚えておけば十分です。 これで協調ゲーム理論を機械学習の世界に置き換えるイメージできたと思うのですが、実は機械学習で限界貢献度を考えるときに大きな問題が出てきます。
  14. それが、特徴量全ての組合せの予測を実施しないと限界貢献度の期待値を計算できないということです。 Shapley Valueでは、さきほどの3人で報酬を分けた例のように、全ての組合せでそのとき得られる報酬の計算が必要となります。 機械学習でも同様に正確なShapley Valueの期待値を計算するためには、全ての特徴量の組合せでモデルを作る必要が出てきます。 つまり、n個の特徴量がある場合は、2のn乗個ほどのモデルを作らないといけないわけです。 特徴量が数千個や数万個あるような場合、モデルを作る計算が終わらなくなることは容易に想像できます。 そこで、SHAPでは、全ての組合せのモデルを構築するのではなく、予測値の条件付き期待値で近似することで計算量を削減します。
  15. SHAPの近似手法としては、モデルに依存しない手法と、特定のモデルに特化した手法などが提案されています。 今回は、説明が長くなるので、これらの詳細については、また要望があれば解説動画を出したいと思います。
  16. まとめをします。 序盤では、モデルを解釈するときに使う単純な近似のモデルであるExplanation Modelを紹介しました。 複雑なモデルはそのままでは解釈ができないため、Explanation Modelを用いた解釈が必要になるということですね。 また、既存の機械学習を説明する手法であるLIMEなどは、Additive Feature Attribution Methodsという枠組みで一般化できることを紹介しました。 そして、今回の動画のメイントピックであるSHAPで使われている協調ゲーム理論のShapley Valueについて解説しました。 ある人が加わることによって増える報酬である限界貢献度の期待値であるShapley Valueは、複数人で報酬をわけるときの公正な分配な方法となっています。 最後に、Shapley Valueにおける報酬の分配を特徴量の重要度の分配に見立てたSHAPを紹介し、SHAPの計算が特徴量が増えるに連れ爆発的に増えることと、その対策として条件付き期待値を使った近似が必要であることをお話しました。 すこし、説明が長くなってしまったのですが、SHAP自体は、説明可能なAIの分野でよく使われる手法となっており、オープンソースも公開されています。 短いコードでSHAPを試すことができるので、概念を学ぶだけではなく、ぜひ実装して出てくる結果を考察してみてください。
  17. 最後にチャンネルの紹介をさせてください。 このチャンネルでは、経営やデータサイエンスや開発の話をしていきます。 聞きたい話のリクエストも募集中です。 もし、この動画が役に立ったら高評価とチャンネル登録をお願いいたします。
  18. 既存手法はどれも同じように定式化できる Additive feature attribution method → LIMEなどの既存手法に共通する手法をさす この式の解が一つ定まるようにしたい → Shapley値の導入
  19. SHAPではこれらを満たす、協力ゲーム理論の枠組みであるshap値を導入 → LIMEなどの既存手法を包含しており、唯一の理想解が得られるようにした → shap値とは?(次スライド)
  20. 例についてはこちらを参考にしています https://blog.tsurubee.tech/entry/2021/07/19/120541
  21. Shapley value をどうやって機械学習に対応させるか ある特徴がなかった時の予測値を出すのに特徴量全ての組み合わせのモデルが必要になってしまうので工夫が必要 → 予測値の条件付き期待値
  22. z_1を与えた時の予測値はどの程度か? 定義通り計算するなら、特徴量を追加する順番も考慮してモデルを複数用意しなければならない E[f(z) |z_1=x_1] → x_1だけ与えた時の予測値の期待値 → x_1以外の特徴量の分布を用いて、条件付き期待値を求めることにしている → 特徴量の独立性とモデルの線形性を仮定して、次のように近似 = f([z_1, E[z_1以外]]) (z_1以外の変数には平均値を代入するイメージ 4章式9~12)
  23. では、実際、SHAPは役に立つかどうかについて、SHAPを用いた実験を紹介します。 kernel shap, Shapley sampling, limeで算出したshap値とその真値を比較 モデルの評価数を増やす → shap値の推定のために必要なサンプリングを多く行う グラフは同じサンプリング数で200回繰り返した時の推定値の10%, 90%を示す