SlideShare ist ein Scribd-Unternehmen logo
1 von 20
2021/09/25
XAI (説明可能なAI) の必要性
自己紹介
✤ 名前: 西岡 賢一郎
✤ 鹿児島出身、一児のパパ
✤ Twitter: @ken_nishi
✤ note: 西岡賢一郎@研究者から経営者へ (https://note.com/kenichiro)
✤ YouTube: 【経営xデータサイエンスx開発】西岡 賢一郎のチャンネル (https://www.youtube.com/channel/UCpiskjqLv1AJg64jFCQIyBg)
✤ 経歴
✤ 東京大学で位置予測アルゴリズムを研究し博士 (学術) を取得
✤ 東京大学の博士課程在学中にデータサイエンスをもとにしたサービスを提供する株式会社トライディアを設立
✤ トライディアを別のIT会社に売却し、現在CTOを務める
✤ 自社および他社のプロダクト開発チーム・データサイエンスチームの立ち上げ経験
今回の内容
✤ 機械学習で説明責任が求められる背景
✤ XAIと2つの説明
✤ 説明可能性は本当に必要か
機械学習で説明責任が求められる背景
高性能AIが誕生する時代
✤ 近年、AIの性能は飛躍的に向上している
正答率99%の超高性能AI
高度なアルゴリズム
高性能な計算マシン
大量のデータ
ブラックボックスなAI
高性能のAIができたとしても、AIがブラックボックスだと使えないことも
プランAをやりましょう!
なるほど、その根拠は?
AIが判断しました!
判断基準は不明です!
・・・
プランA
説明責任はどんなときに必要か
✤ 人間が納得する必要があるとき (医療現場や犯罪予防など)
✤ AIにより導き出された結果を用いて、次に何かしらのアクションを人間起こすとき
✤ そもそもAIが正しく動いているかを理解したいとき
ブラックボックスなAIの導き出した
答えを信じて会社が潰れた
AIが不得意なこと
AIは高精度の予測ができるが、どのように判断したかを人間に分かるように
説明ができるわけではない
xをいい感じになめらかな曲線のf(x)で
変換するとyが出てきます。
AIの判断に説明責任が求められる → 説明可能なAI (eXplainable AI)
(何言ってんだこいつ?)
XAIと2つの説明
XAI (eXplainable AI)とは
AIが予測結果を導き出した過程が人間が理解できるように表現できる
「y = 3 x」 の関係なので、
x = 2のときはy = 6です。
理解できる!!
機械学習のイメージ(教師あり学習の例)
目的変数を生み出す関数を明らかにしていくのが機械学習の目的
インプット
(説明変数)
アウトプット
(目的変数)
未知の関数
機械学習によるフィッティング
インプット
(説明変数)
アウトプット
(目的変数)
学習した関数
学習した関数がどのような挙動を示すかを「説明する」必要がある
機械学習では未知の関数をデータを元に推定していく
説明可能性とは
単純な関数であれば説明しやすい
複雑な関数だと説明が難しい
“人間が理解できる”ように説明をすることが必要となる
2つの説明
✤ 大域的な説明:モデル全体の振る舞いを説明する
✤ Feature Importance (Gini Impurity)
✤ Permutation Feature Importance
✤ 局所的な説明:特定のインプットに対してどうやってアウトプットが出たか説明す
る
✤ LIME: 局所的に線形近似
✤ SHAP: 協力ゲーム理論
例: モデルが重視している
特徴量はどれか
例: ある予測のときに重視された
特徴量はどれか
局所的な説明
モデル全体は複雑でも一部の判断基準が分かれば良い!!
このデータが正と判断された
根拠を知りたい
境界は複雑で説明が困難
局所的に解釈しやすい
モデルを使って近似
簡単な境界だから説明が簡単
説明可能性は本当に必要か
ブラックボックスを許容する
✤ あくまでも目的とするのが予測精度の高さであれば、人間が理解しなくてもよいという判断もある
✤ 説明可能なモデルにこだわりすぎると、人間の理解の限界がモデルの限界を決めてしまうことにな
り、予測精度がそこそこになってしまう
✤ 逆に、予測精度をそこそこにして説明可能性を重視してもよい
高い予測精度
説明不可能
そこそこの予測精度
説明可能
どちらを優先する?
ブラックボックスを許容するときの注意点
高すぎる性能は、ときとして使えないモデルを作っていたりする
✤ オーバーフィッティング
✤ クロスバリデーションによって回避
✤ リーケージ
✤ 時系列情報を使った回避もある
✤ 気づけないことが多い
未知のデータは知らん!
オーバーフィティング
答えを見て学習しよっと
リーケージ
まとめ
✤ AIは予測は得意だが、人間が分かるように予測モデルの説明をしてくれるわけではない
✤ AIの予測結果を用いて人間が次のアクションに繋げる必要があるときなどに、AIの中身を理解
したいときにXAIが必要となる
✤ XAIでは、人間が理解しやすいモデルでAIを表現する
✤ XAIでは大局的な説明と局所的な説明があり、前者はモデルの全体の振る舞いを説明し、後者は
特定のインプットに対する予測の過程を説明する
✤ ブラックボックスを許容して、説明可能性を捨てて予測精度を取る選択肢もありうる
✤ ブラックボックスを受け入れる場合は、オーバーフィッティングやリーケージに特に気をつけ
る
参考資料: YouTube, note
目的達成のためにブラックボックスを許容する
https://note.com/kenichiro/n/n1be20b7897b2
AIを意思決定に使うために必要な説明可能性
https://note.com/kenichiro/n/n620bb074d0b0
【機械学習】XAIを実現するLIME ~ 説明可能なAIとは
https://youtu.be/LCdxKGVGN4c
【機械学習】協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP
https://youtu.be/6iq4R_NJqKE
【機械学習】非現実的に高い精度のモデルにならないために
リーケージを避ける方法
https://youtu.be/vrcai7QvVn0
YouTube Note

Weitere ähnliche Inhalte

Was ist angesagt?

CV分野におけるサーベイ方法
CV分野におけるサーベイ方法CV分野におけるサーベイ方法
CV分野におけるサーベイ方法Hirokatsu Kataoka
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
テーブル・テキスト・画像の反実仮想説明
テーブル・テキスト・画像の反実仮想説明テーブル・テキスト・画像の反実仮想説明
テーブル・テキスト・画像の反実仮想説明tmtm otm
 
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計Takahiro Kubo
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -tmtm otm
 
協調フィルタリング入門
協調フィルタリング入門協調フィルタリング入門
協調フィルタリング入門hoxo_m
 
機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018Takahiro Kubo
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion ModelsDeep Learning JP
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情Yuta Kikuchi
 
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII
 
“機械学習の説明”の信頼性
“機械学習の説明”の信頼性“機械学習の説明”の信頼性
“機械学習の説明”の信頼性Satoshi Hara
 
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-Shiga University, RIKEN
 
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)Deep Learning JP
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
 
KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告GentaYoshimura
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 

Was ist angesagt? (20)

CV分野におけるサーベイ方法
CV分野におけるサーベイ方法CV分野におけるサーベイ方法
CV分野におけるサーベイ方法
 
BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
テーブル・テキスト・画像の反実仮想説明
テーブル・テキスト・画像の反実仮想説明テーブル・テキスト・画像の反実仮想説明
テーブル・テキスト・画像の反実仮想説明
 
Data-Centric AIの紹介
Data-Centric AIの紹介Data-Centric AIの紹介
Data-Centric AIの紹介
 
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
協調フィルタリング入門
協調フィルタリング入門協調フィルタリング入門
協調フィルタリング入門
 
機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
 
“機械学習の説明”の信頼性
“機械学習の説明”の信頼性“機械学習の説明”の信頼性
“機械学習の説明”の信頼性
 
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-
 
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 

Ähnlich wie XAI (説明可能なAI) の必要性

機械学習の技術的負債
機械学習の技術的負債機械学習の技術的負債
機械学習の技術的負債西岡 賢一郎
 
H2O Waveを使ったAIアプリケーション作成入門
H2O Waveを使ったAIアプリケーション作成入門H2O Waveを使ったAIアプリケーション作成入門
H2O Waveを使ったAIアプリケーション作成入門西岡 賢一郎
 
H2Oを使ったノーコードのAutoML
H2Oを使ったノーコードのAutoMLH2Oを使ったノーコードのAutoML
H2Oを使ったノーコードのAutoML西岡 賢一郎
 
AutoGluonではじめるAutoML
AutoGluonではじめるAutoMLAutoGluonではじめるAutoML
AutoGluonではじめるAutoML西岡 賢一郎
 
Feature StoreのOnline StoreとOffline Storeの違いについて理解する
Feature StoreのOnline StoreとOffline Storeの違いについて理解するFeature StoreのOnline StoreとOffline Storeの違いについて理解する
Feature StoreのOnline StoreとOffline Storeの違いについて理解する西岡 賢一郎
 
機械学習の特徴量を管理するAmazon SageMaker Feature Store
機械学習の特徴量を管理するAmazon SageMaker Feature Store機械学習の特徴量を管理するAmazon SageMaker Feature Store
機械学習の特徴量を管理するAmazon SageMaker Feature Store西岡 賢一郎
 
Amazon SageMaker JumpStart
Amazon SageMaker JumpStartAmazon SageMaker JumpStart
Amazon SageMaker JumpStart西岡 賢一郎
 
Amazon SageMakerでカスタムコンテナを使った学習
Amazon SageMakerでカスタムコンテナを使った学習Amazon SageMakerでカスタムコンテナを使った学習
Amazon SageMakerでカスタムコンテナを使った学習西岡 賢一郎
 
TorchDataチュートリアル解説
TorchDataチュートリアル解説TorchDataチュートリアル解説
TorchDataチュートリアル解説西岡 賢一郎
 
Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成
Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成
Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成西岡 賢一郎
 
Amazon SageMaker Foundation Modelsで事前学習済みモデルを利用する
Amazon SageMaker Foundation Modelsで事前学習済みモデルを利用するAmazon SageMaker Foundation Modelsで事前学習済みモデルを利用する
Amazon SageMaker Foundation Modelsで事前学習済みモデルを利用する西岡 賢一郎
 
Amazon AthenaでSageMakerを使った推論
Amazon AthenaでSageMakerを使った推論Amazon AthenaでSageMakerを使った推論
Amazon AthenaでSageMakerを使った推論西岡 賢一郎
 
Amazon SageMaker Studio Lab紹介
Amazon SageMaker Studio Lab紹介Amazon SageMaker Studio Lab紹介
Amazon SageMaker Studio Lab紹介西岡 賢一郎
 
Amazon SageMakerのNotebookからJobを作成する
Amazon SageMakerのNotebookからJobを作成するAmazon SageMakerのNotebookからJobを作成する
Amazon SageMakerのNotebookからJobを作成する西岡 賢一郎
 
機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで
機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで
機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで西岡 賢一郎
 
Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析
Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析
Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析西岡 賢一郎
 
Amazon SageMaker Canvasを使ったノーコード機械学習
Amazon SageMaker Canvasを使ったノーコード機械学習Amazon SageMaker Canvasを使ったノーコード機械学習
Amazon SageMaker Canvasを使ったノーコード機械学習西岡 賢一郎
 
Amazon SageMaker ML Governance 3つの機能紹介
Amazon SageMaker ML Governance 3つの機能紹介Amazon SageMaker ML Governance 3つの機能紹介
Amazon SageMaker ML Governance 3つの機能紹介西岡 賢一郎
 
Amazon SageMaker Ground Truthを使って手動のラベル付けを簡略化する
Amazon SageMaker Ground Truthを使って手動のラベル付けを簡略化するAmazon SageMaker Ground Truthを使って手動のラベル付けを簡略化する
Amazon SageMaker Ground Truthを使って手動のラベル付けを簡略化する西岡 賢一郎
 

Ähnlich wie XAI (説明可能なAI) の必要性 (20)

機械学習の技術的負債
機械学習の技術的負債機械学習の技術的負債
機械学習の技術的負債
 
H2O Waveを使ったAIアプリケーション作成入門
H2O Waveを使ったAIアプリケーション作成入門H2O Waveを使ったAIアプリケーション作成入門
H2O Waveを使ったAIアプリケーション作成入門
 
H2Oを使ったノーコードのAutoML
H2Oを使ったノーコードのAutoMLH2Oを使ったノーコードのAutoML
H2Oを使ったノーコードのAutoML
 
AutoGluonではじめるAutoML
AutoGluonではじめるAutoMLAutoGluonではじめるAutoML
AutoGluonではじめるAutoML
 
Feature StoreのOnline StoreとOffline Storeの違いについて理解する
Feature StoreのOnline StoreとOffline Storeの違いについて理解するFeature StoreのOnline StoreとOffline Storeの違いについて理解する
Feature StoreのOnline StoreとOffline Storeの違いについて理解する
 
機械学習の特徴量を管理するAmazon SageMaker Feature Store
機械学習の特徴量を管理するAmazon SageMaker Feature Store機械学習の特徴量を管理するAmazon SageMaker Feature Store
機械学習の特徴量を管理するAmazon SageMaker Feature Store
 
Amazon SageMaker JumpStart
Amazon SageMaker JumpStartAmazon SageMaker JumpStart
Amazon SageMaker JumpStart
 
Amazon SageMakerでカスタムコンテナを使った学習
Amazon SageMakerでカスタムコンテナを使った学習Amazon SageMakerでカスタムコンテナを使った学習
Amazon SageMakerでカスタムコンテナを使った学習
 
未来のカタチ x AI
未来のカタチ x AI未来のカタチ x AI
未来のカタチ x AI
 
TorchDataチュートリアル解説
TorchDataチュートリアル解説TorchDataチュートリアル解説
TorchDataチュートリアル解説
 
Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成
Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成
Amazon SageMakerでscikit-learnで作ったモデルのEndpoint作成
 
Amazon SageMaker Foundation Modelsで事前学習済みモデルを利用する
Amazon SageMaker Foundation Modelsで事前学習済みモデルを利用するAmazon SageMaker Foundation Modelsで事前学習済みモデルを利用する
Amazon SageMaker Foundation Modelsで事前学習済みモデルを利用する
 
Amazon AthenaでSageMakerを使った推論
Amazon AthenaでSageMakerを使った推論Amazon AthenaでSageMakerを使った推論
Amazon AthenaでSageMakerを使った推論
 
Amazon SageMaker Studio Lab紹介
Amazon SageMaker Studio Lab紹介Amazon SageMaker Studio Lab紹介
Amazon SageMaker Studio Lab紹介
 
Amazon SageMakerのNotebookからJobを作成する
Amazon SageMakerのNotebookからJobを作成するAmazon SageMakerのNotebookからJobを作成する
Amazon SageMakerのNotebookからJobを作成する
 
機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで
機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで
機械学習用のデータを準備する Amazon SageMaker Data Wrangler - ノーコードで前処理から学習まで
 
Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析
Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析
Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析
 
Amazon SageMaker Canvasを使ったノーコード機械学習
Amazon SageMaker Canvasを使ったノーコード機械学習Amazon SageMaker Canvasを使ったノーコード機械学習
Amazon SageMaker Canvasを使ったノーコード機械学習
 
Amazon SageMaker ML Governance 3つの機能紹介
Amazon SageMaker ML Governance 3つの機能紹介Amazon SageMaker ML Governance 3つの機能紹介
Amazon SageMaker ML Governance 3つの機能紹介
 
Amazon SageMaker Ground Truthを使って手動のラベル付けを簡略化する
Amazon SageMaker Ground Truthを使って手動のラベル付けを簡略化するAmazon SageMaker Ground Truthを使って手動のラベル付けを簡略化する
Amazon SageMaker Ground Truthを使って手動のラベル付けを簡略化する
 

Mehr von 西岡 賢一郎

リモートワークで知っておきたい コミュニケーション時の過大な期待
リモートワークで知っておきたい コミュニケーション時の過大な期待リモートワークで知っておきたい コミュニケーション時の過大な期待
リモートワークで知っておきたい コミュニケーション時の過大な期待西岡 賢一郎
 
リモートワークで意識すべき7つのこと
リモートワークで意識すべき7つのことリモートワークで意識すべき7つのこと
リモートワークで意識すべき7つのこと西岡 賢一郎
 
PMFを目指すプロダクト開発組織が組織拡大するときににやるべきこと
PMFを目指すプロダクト開発組織が組織拡大するときににやるべきことPMFを目指すプロダクト開発組織が組織拡大するときににやるべきこと
PMFを目指すプロダクト開発組織が組織拡大するときににやるべきこと西岡 賢一郎
 
機械学習プラットフォーム5つの課題とAmazon SageMakerの4つの利点
機械学習プラットフォーム5つの課題とAmazon SageMakerの4つの利点機械学習プラットフォーム5つの課題とAmazon SageMakerの4つの利点
機械学習プラットフォーム5つの課題とAmazon SageMakerの4つの利点西岡 賢一郎
 
ストリートビューから地域の豊かさを推定
ストリートビューから地域の豊かさを推定ストリートビューから地域の豊かさを推定
ストリートビューから地域の豊かさを推定西岡 賢一郎
 
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック 大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック 西岡 賢一郎
 
人間の意思決定を機械学習でモデル化できるか
人間の意思決定を機械学習でモデル化できるか人間の意思決定を機械学習でモデル化できるか
人間の意思決定を機械学習でモデル化できるか西岡 賢一郎
 
協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)
協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)
協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)西岡 賢一郎
 
表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」
表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」
表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」西岡 賢一郎
 

Mehr von 西岡 賢一郎 (9)

リモートワークで知っておきたい コミュニケーション時の過大な期待
リモートワークで知っておきたい コミュニケーション時の過大な期待リモートワークで知っておきたい コミュニケーション時の過大な期待
リモートワークで知っておきたい コミュニケーション時の過大な期待
 
リモートワークで意識すべき7つのこと
リモートワークで意識すべき7つのことリモートワークで意識すべき7つのこと
リモートワークで意識すべき7つのこと
 
PMFを目指すプロダクト開発組織が組織拡大するときににやるべきこと
PMFを目指すプロダクト開発組織が組織拡大するときににやるべきことPMFを目指すプロダクト開発組織が組織拡大するときににやるべきこと
PMFを目指すプロダクト開発組織が組織拡大するときににやるべきこと
 
機械学習プラットフォーム5つの課題とAmazon SageMakerの4つの利点
機械学習プラットフォーム5つの課題とAmazon SageMakerの4つの利点機械学習プラットフォーム5つの課題とAmazon SageMakerの4つの利点
機械学習プラットフォーム5つの課題とAmazon SageMakerの4つの利点
 
ストリートビューから地域の豊かさを推定
ストリートビューから地域の豊かさを推定ストリートビューから地域の豊かさを推定
ストリートビューから地域の豊かさを推定
 
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック 大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
 
人間の意思決定を機械学習でモデル化できるか
人間の意思決定を機械学習でモデル化できるか人間の意思決定を機械学習でモデル化できるか
人間の意思決定を機械学習でモデル化できるか
 
協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)
協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)
協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)
 
表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」
表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」
表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」
 

Kürzlich hochgeladen

AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 

Kürzlich hochgeladen (9)

AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 

XAI (説明可能なAI) の必要性

Hinweis der Redaktion

  1. それでは早速ですが、私の発表の方に入らせていただきます。 今回私からは、XAI (説明可能なAI) の必要性についてお話しします。
  2. こちらが私のプロフィールです。 もともとは機械学習のアルゴリズムを大学院で研究しており、博士課程の途中で起業しました。 現在は、立ち上げた会社を売却した先でCTOとして勤務しています。 今までおもにプロダクト開発やデータサイエンスチームの立ち上げや支援をやってきました。 業務外では、この勉強会の開催や、YouTubeやnoteで機械学習やスクラムの話の解説をしています。
  3. ディープラーニングなどの高度なアルゴリズムや高性能な計算マシン、そして大量のデータが手に入るようになり、高性能なAIがどんどん登場しています。 もはや、高性能なAIに判断を任してしまえば、全てがうまくいくような感じもします。 正答率が99%のAIがあれば、それを使ってしまえばいいような気もしてしまいますよね。
  4. しかし、実際は、AIが出してきた何かしらの予測をそのまま使おうとしても、AIがなぜその判断をしたのか理由をつけられないときAIの判断をそのまま受け入れることができないことも多い。 例えば、ビジネスで意思決定をするときに、高性能だが中身がよくわかっていないAIのいうことをそのまま上司に提案しても、導き出された結論に対する根拠がブラックボックスだから分かりませんと言ってしまっては、無責任だと思われ、提案を却下されてしまいます。
  5. AIに対する説明責任は、人間が納得する必要があるときや、AIにより導き出された結果を用いて、次に何かしらのアクションを起こすときや、AIが正しい挙動をしているかを理解したいときなどに必要となります。 AIの説明責任では、医療の例がよく出される事が多いです。 ガンだと診断されて、その理由を医者に聞いてもAIが判断したので分かりませんと言われたら、その医者を信頼することは難しいですよね。
  6. 冒頭に述べたように、アルゴリズムの進化など様々な変化により、AIは飛躍的な進化を遂げてきています。 しかし、性能の進化とともに、AIで使われているモデルの複雑化が進み、ブラックボックス化はより深刻になってきています。 AIを使う人達は、高精度の予測ができるAIが、必ずしも人間への説明が得意ではないことを知る必要があります。 機械の中では最適化された妥当な予測だったとしても、人間には難し過ぎて理解ができないということです。 これがAIがブラックボックスだと言われる所以です。 このブラックボックスをできる限り説明できるようにしたいというのが、説明可能なAI, XAIが登場した背景となります。
  7. では、ここからはXAIと2つの説明についてお話します。
  8. XAIはeXplainable AIの略で、ここ数年で特に着目されてきている技術です。 Inputが2で導き出された答えが6だった場合に、y=3xで計算しましたというのであれば、人間でも理解しやすいものですよね。
  9. ここで機械学習の挙動をイメージできるように、教師あり学習を例にして、機械学習の目的を簡単に説明します。 教師ありの機械学習では、インプットとアウトプットが与えられます。 ECサイトの例で言えば、インプットは購買履歴、アウトプットは特定の商品を買うかどうかなどがあります。 ここで、インプットが何かしらの未知の関数で変換された結果アウトプットが出てくるという構造を、機械学習では解き明かします。 つまり、このフローの真ん中の関数を推定するというのが機械学習が目的ということです。
  10. 未知の関数は、インプットとアウトプットをもとに推測されていきます。 これによって学習された関数が出来上がるということです。 もちろん、インプットとアウトプットだけでは、もとの未知の関数を完全に再現できるわけではないので、目的となる未知の関数にできる限り近い関数が、学習に得られるというわけです。 この学習した関数がどんな挙動を示すかを説明する必要をすることを目的とするのがXAIです。
  11. ここで、学習した関数を説明するときに問題が出てきます。 学習した関数が単純であれば、もちろん簡単に説明ができます。 しかし、学習した関数が複雑である場合、説明が難しくなります。 この説明しやすさが、説明可能性と呼ばれるものです。 説明可能性では、人間が理解できるように説明することが必要となります。
  12. 説明可能性で出てくる説明は大きく分けて2つの種類が存在します。 1つは大域的な説明で、モデル全体の振る舞いを説明するものです。 Feature importanceと呼ばれるものなどがよく使われるものですね。 ジニ不純度という指標を使ったり、特徴量を増減して予測精度の変化を見ることで、モデルが重視している特徴量を明らかにしていいきます。 もう一つは、局所的な説明で、特定のインプットがどのようなプロセスを経てアウトプットになったかを説明します。 有名なアルゴリズムとしては局所的な線形近似を行うLIMEや協力ゲーム理論の公平な分配方法を用いたSHAPなどがあります。 モデル全体は知らなくてもいいから、ある予測がどんな根拠で出されたかを知りたい場合などに、局所的な説明は役に立ちます。 大域的な説明と局所的な説明と聞くと、全体が説明できる大域的説明のほうがいいのではないかと思う人もいるかもしれませんが、目的が異なるのでどちらが秀でているとかではありません。
  13. 局所的な説明に関して、少しわかりにくい部分もあるかと思うので、もう少しだけ補足しておきます。 教師あり学習で複雑なアルゴリズムを使うと、正と負の境界が複雑に入り組んで、境界を人間にわかるような説明に変換することが難しいです。 そこで、局所的な説明では、特定の予測の予測に関しての説明のみに注目します。 よくやられる方法では、対象となる予測の周辺のデータを持ってきて、線形モデルなど解釈が容易なアルゴリズムを用いて局所的にフィッティングをします。 全体の予測を表すことはできないが、近いデータとなぜ差が出たかを理解することで、局所的な説明を実現していきます。
  14. ここまで、説明可能性などについて話してきたのですが、そもそも説明可能性が本当に必要かどうかについてお話します。
  15. もし、AIを使う目的が、予測精度がとにかく高いものを使いたいというのであれば、人間が無理に理解できるようにしないという判断もあります。 説明可能なモデルにこだわりすぎてしまうと、人間の理解の限界がモデルの限界を決めてしまいます。 その結果、高精度の予測ではなく、そこそこの予測精度のモデルになってしまいます。 ただ、逆に予測精度はそこそこでいいので、説明可能性を重視するという選択肢もありうるということです。 これらは一般的にトレードオフの関係になるので、ブラックボックスで高い精度がいいのか、それともそこそこの精度で説明可能性を求めるかは、プロジェクトの目的に合わせて考えてみてください。
  16. もし説明可能性よりも予測精度が重要だとおいうことでモデルのブラックボックスを許容するという判断になった場合は、モデルが不当に高い予測精度になっていないかに気をつける必要があります。 高い精度だったけれど、よくよく調べてみたらオーバーフィッティングやリーケージが発生していたというのはよくある話です。 こうならないためにも、オーバーフィッティングをさけるためにクロスバリデーションを必ず避けたり、リーケージを割けるためにデータの時系列情報を用いたりします。 とくにリーケージは気づけないことも多いため注意が必要です。
  17. 最後にまとめをします。 AIは予測は得意ではあるけども、必ずしも人間が分かるように、予測モデルを説明してくれるわけではありません。 そのため、AIが導き出した予測結果を用いて、何かしらのアクションを人間が取る場合などは、AIがなぜその予測結果を出したのかを人間が理解する必要があります。 そこで出てくるのが今回のテーマである説明可能なAI (XAI) です。 XAIでは、人間が理解しやすいモデルを使ってAIを表現します。 XAIでは、大きく分けて2つの種類の説明があります。 1つが大局的な説明で、モデル全体の振る舞いを説明します。 もう1つが局所的な説明で、特定のインプットに対する予測の過程を説明します。 XAIは、必ずしも必要というわけではなく、AIのブラックボックスを許容して説明可能性を捨てて、予測精度をとにかく向上させるという選択肢もあります。 その場合は、オーバーフィッティングやリーケージがわかりにくくなることもあるので、特に気をつけておく必要があります。