SlideShare a Scribd company logo
1 of 18
信号検出理論
2017.10.18 統計モデリング勉強会
広島大学グローバルキャリアデザインセンター 特別研究員
広島大学大学院 教育学研究科 学習心理学研究室
山根 嵩史
『実践ベイズモデリングー解析技法と認知モデルー』15章
信号検出理論とは
✔︎ ︎信号検出理論の良いところ
信号検出の感度と参加者の判断基準を独立した
指標として得ることができる
✔︎ ︎心理学における信号検出理論の利用
・記憶の再認課題
・単語/非単語などの識別課題
信号検出理論 (TSD: Theory of Signal Detection) は,「ランダ
ムに変動するノイズの中に検出すべき信号が存在する」ような
状況を想定した理論
心理学においては,ノイズと信号を無視すべき刺激と知覚す
べき刺激とみなし,それらに対する実験参加者の弁別力を算出
するために用いられる
再認課題の一般的な手続き(不要かもですが…)
学習フェーズ 再認フェーズ
リンゴ みかん ブドウ
梨 もも いちじく
参加者は,所定の刺激 (学習
項目) のリストを学習
妨害課題
など
リンゴ みかん ブドウ
梨 もも いちじく
マンゴー すもも キウイ
パイン 檸檬 いちご
+
学習項目リストと同数の刺激
(フィラー項目) リストを呈示
参加者は,刺激が“学習したも
のかそうでないか”を判断
(old/new判断)
再認課題の一般的な手続き(不要かもですが…)
参加者の反応
old new
old項目 ヒット ミス
new項目 誤警報 (FA) 正棄却 (CR)
参加者の判断に基づいて,反応を4つに分類
記憶についての様々な指標を取れる
ヒット率−FA率で修正再認率を出したり,参加者の
判断のバイアス (oldと判断しがちかnewと判断しが
ちか) を評価したり
刺激の種類や課題状況の違いは色々あるけどだいたいこんな感じ。
ノイズ分布と信号+ノイズ分布
N分布 SN分布
N分布:ノイズが呈示されたときの心理量の分布
SN分布:信号+ノイズが呈示されたときの心理量の分布
信号が加わる分,信号強度が高くなるため,常に
N分布より右側に位置する
心理量:信号強度に対応した心理量
心理量
確
率
密
度
確率密度:各分布のもとでその心理量が生じる確率 (尤度)
※信号検出理論のもとではノイズおよび信号の強度は一定なので,ノイズや信号のばらつきではなく心理量
に変換される際の誤差による分布である点に注意
再認課題の場合
N分布 SN分布
N分布:フィラー項目に対する覚えた感の分布
SN分布:学習項目に対する覚えた感の分布
心理量:“学習フェーズで見た (覚えた)”という感覚
心理量
確
率
密
度
確率密度:フィラー項目,学習項目の分布のもとで,その覚え
た感が生じる確率
学習してない項目でも “覚え
た感”が高い場合もある
学習した項目でも“覚えた
感“が低い場合もある
信号検出理論の仮定
✔︎ ︎N分布とSN分布は正規分布である (正規性の仮定)
✔︎ N分布とSN分布の分散は等しい (等分散の仮定)
信号検出理論では,
という仮定をおく
(たぶんN分布・SN分布の推定や,反応バイアスcの計算のために必要な仮定)
信号検出理論のもとではノイズおよび信号の強度は一定と考え
るが,刺激に対して参加者が感じる心理量には誤差があり,全
体としてはその誤差は正規分布をとるとみなす
※刺激の性質の違いによるバラツキではない点に注意
N分布とSN分布が等分散でない場合の指標
(A’,Δm など) も提案されている
(『信号検出理論の指標をめぐって』などを参照)
信号検出の感度
N分布とSN分布の関係は,信号の
強度 (と感覚系の特性) によって決まる
M0 M1
M0 M1
M0 M1
信号強度に対応する心理量が大き
いほど,N分布とSN分布は離れる
N分布の平均(M0)とSN分布の平均
(M1)の差を,N分布の標準偏差sで
割った値
は信号検出力と定義される
(信号検出の感度の指標)
心理量が小さいほど,N分布とSN
分布が重なり,信号検出は困難に
参加者の判断基準
参加者は,心理量を観察し,その
心理量がどちらの分布から得られ
たものかを判断する
(e.g., 再認課題におけるold/new判断)
参加者は,心理量がある一定の値
を超えたときに信号アリ (“Yes”)と,
その値未満のときに信号ナシ
(“No”)と判断すると考える
M0
M1
k
k
正棄却 誤警報
ミス ヒット
判断基準 (k) とN分布,SN分布の
関係は左図のようになり,得られ
たヒット率と誤警報率をもとに,
N分布とSN分布を推測することが
可能になる
Yes反応 No反応
信号+ノイズ ヒット ミス
ノイズ 誤警報 (FA) 正棄却 (CR)
参加者の反応バイアス
M0 M1kd/2 M0 M1k d/2
c > 0 c < 0
d d
判断基準kとd/2の差 は反応バイアスと定義される
d/2はN分布とSN分布の境目になるので,kとd/2が一致している
状態 (c = 0) は反応バイアスがない状態
c>0だとNo反応をしがちな参加者 (正棄却,ミスが増加)
c<0だとYes反応をしがちな参加者 (ヒット,誤警報が増加)
15.1.3 モデル
d:信号検出力
c:反応バイアス
θ(h):ヒット率
θ(f):誤警報率
h:ヒットの度数
f:誤警報の度数
nS:信号アリ試行の数 (ヒット+ミス)
nN:信号ナシ試行の数(誤警報+正棄却)
15.1.4 階層モデルによって個人差を表現したモデル
dとcの個人差を表すため,事前分布として正規分布を仮定し,
平均μd,μc,標準偏差σd,σcを設定
15.2 分析例
1)学習段階:実験参加者はまず,合計60個の単語を呈示され,できるだ
け多くの単語を記憶するよう教示されます。単語は,15単語からなる4
つのリストに分けて順番に呈示され,各リストの学習時間は30秒とし
ました。
2) 再認課題:学習の直後に,実験参加者は48単語が12×4の配列で記載さ
れた用紙を渡され,学習段階で見たと思う単語すべてに丸を付けるよ
う教示されます。なお,再認課題において呈示された単語の半分は学
習段階で呈示した中に含まれる単語 (Old),残り半分は新規な単語
(New) です。この比率は実験参加者には知らされていません。
『実践ベイズモデリング−解析技法と認知モデル』 pp.135-136 より
・一般的なペーパー&ペンシルの再認課題
・60項目を記銘
・参加者7名
15.2.1 全体データの分析
Yes No
old 109 59
new 15 153
dは平均1.71[1.38,2.03]
cは平均0.47[0.31,0.64]
☞参加者は“No”と答
えがち
15.2.2 階層モデルの適用
ヒット率 誤警報率
参加者5のヒット率が低い
参加者6は誤警報率が高い などなど
☞ 信号検出力dや反応バイアスcも加味して解釈
15.2.2 階層モデルの適用
信号検出力d 反応バイアスc
参加者5はヒット率が低く,信号検出力dも低い
さらに反応バイアスcは最も高い
☞ old項目とnewの区別がつきにくく,“No”と答えがちな参加者
参加者6はヒット率が最も高く,反応バイアスcが最も0に近い
☞ 再認成績が良く,判断バイアスも小さい参加者
まとめと感想
✔︎ ︎信号検出理論は,参加者にYes/Noの二値の反応を
求める課題において,感度や反応のバイアスを評
価するのに便利
✔︎ 個人差を加味した階層モデルでは,参加者ごとの
比較も可能
✔︎ ︎ベイズと信号検出理論は相性が良さそう
(そもそもが参加者の反応からN分布・SN分布を推測しましょうというモ
チベーションなので)
✔︎ ︎ベイズだったらN分布とSN分布にそれぞれ別の分
布を仮定することも (たぶん) できる
けどどんなデータに使えるかは分からん
✔︎ ︎N分布とSN分布の形が異なるときの,正確なバイ
アスと検出力のモデリングとか夢が広がリング
参考文献
『実践ベイズモデリング−解析技法と認知モデル』
豊田 秀樹 (編著) 2017 朝倉書店
『心理物理学−方法・理論・応用 (上)』 Gescheider G.
A. (著) 宮岡 徹 (監訳) 2002 北大路書房
石田 翼 信号検出理論の指標をめぐって
(http://www5e.biglobe.ne.jp/~tbs-i/psy/tsd/tsd.pdf)
石田 翼 信号検出理論について−数式と実践
(http://www5e.biglobe.ne.jp/~tbs-i/psy/tsd/tsdrev.pdf)
久保 沙織 信号検出理論・トピックモデル 教育心
理学会第58回総会資料 (http://www.waseda.jp/sem-
toyoda-lab/conference/jaep58/symposium_bayesmodel.pdf)
鍋田 智広 信号検出理論 (http://cogpsy.educ.kyoto-
u.ac.jp/personal/Kusumi/datasem07/nabeta.pdf)

More Related Content

What's hot

相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
takehikoihayashi
 

What's hot (20)

CF-FinML 金融時系列予測のための機械学習
CF-FinML 金融時系列予測のための機械学習CF-FinML 金融時系列予測のための機械学習
CF-FinML 金融時系列予測のための機械学習
 
心理学者のためのJASP入門(操作編)[説明文をよんでください]
心理学者のためのJASP入門(操作編)[説明文をよんでください]心理学者のためのJASP入門(操作編)[説明文をよんでください]
心理学者のためのJASP入門(操作編)[説明文をよんでください]
 
関数データ解析の概要とその方法
関数データ解析の概要とその方法関数データ解析の概要とその方法
関数データ解析の概要とその方法
 
人間の意思決定を機械学習でモデル化できるか
人間の意思決定を機械学習でモデル化できるか人間の意思決定を機械学習でモデル化できるか
人間の意思決定を機械学習でモデル化できるか
 
操作変数法の書き方_田淵貴大
操作変数法の書き方_田淵貴大操作変数法の書き方_田淵貴大
操作変数法の書き方_田淵貴大
 
異常音検知に対する深層学習適用事例
異常音検知に対する深層学習適用事例異常音検知に対する深層学習適用事例
異常音検知に対する深層学習適用事例
 
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
 
PsychoPy Builder:Code Componentの使い方
PsychoPy Builder:Code Componentの使い方PsychoPy Builder:Code Componentの使い方
PsychoPy Builder:Code Componentの使い方
 
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
 
PsychoPyを使った初学者向けの心理実験環境の構築
PsychoPyを使った初学者向けの心理実験環境の構築PsychoPyを使った初学者向けの心理実験環境の構築
PsychoPyを使った初学者向けの心理実験環境の構築
 
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
Sliced Wasserstein Distance for Learning Gaussian Mixture ModelsSliced Wasserstein Distance for Learning Gaussian Mixture Models
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
 
深層学習による非滑らかな関数の推定
深層学習による非滑らかな関数の推定深層学習による非滑らかな関数の推定
深層学習による非滑らかな関数の推定
 
社会心理学とGlmm
社会心理学とGlmm社会心理学とGlmm
社会心理学とGlmm
 
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
 
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
 
forestFloorパッケージを使ったrandomForestの感度分析
forestFloorパッケージを使ったrandomForestの感度分析forestFloorパッケージを使ったrandomForestの感度分析
forestFloorパッケージを使ったrandomForestの感度分析
 
計量経済学と 機械学習の交差点入り口 (公開用)
計量経済学と 機械学習の交差点入り口 (公開用)計量経済学と 機械学習の交差点入り口 (公開用)
計量経済学と 機械学習の交差点入り口 (公開用)
 
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-
 
正準相関分析
正準相関分析正準相関分析
正準相関分析
 

More from Takashi Yamane

MCMCによる回帰分析@ベイズセミナー
MCMCによる回帰分析@ベイズセミナーMCMCによる回帰分析@ベイズセミナー
MCMCによる回帰分析@ベイズセミナー
Takashi Yamane
 
第一回広島ベイズ塾・最小二乗法
第一回広島ベイズ塾・最小二乗法第一回広島ベイズ塾・最小二乗法
第一回広島ベイズ塾・最小二乗法
Takashi Yamane
 
Anova君を使った分散分析
Anova君を使った分散分析Anova君を使った分散分析
Anova君を使った分散分析
Takashi Yamane
 
Mendeleyで簡単! 論文管理
Mendeleyで簡単! 論文管理Mendeleyで簡単! 論文管理
Mendeleyで簡単! 論文管理
Takashi Yamane
 

More from Takashi Yamane (13)

DiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ー
DiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ーDiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ー
DiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ー
 
Osaka.stan#4 chap8
Osaka.stan#4 chap8Osaka.stan#4 chap8
Osaka.stan#4 chap8
 
要因計画データに対するベイズ推定アプローチ
要因計画データに対するベイズ推定アプローチ要因計画データに対するベイズ推定アプローチ
要因計画データに対するベイズ推定アプローチ
 
PypeRで実験と分析を一本化する
PypeRで実験と分析を一本化するPypeRで実験と分析を一本化する
PypeRで実験と分析を一本化する
 
Rの導入とRStudio事始め(改訂版)
Rの導入とRStudio事始め(改訂版)Rの導入とRStudio事始め(改訂版)
Rの導入とRStudio事始め(改訂版)
 
ガンマ分布 @魁!!広島ベイズ塾
ガンマ分布 @魁!!広島ベイズ塾ガンマ分布 @魁!!広島ベイズ塾
ガンマ分布 @魁!!広島ベイズ塾
 
(実験心理学徒だけど)一般化線形混合モデルを使ってみた
(実験心理学徒だけど)一般化線形混合モデルを使ってみた(実験心理学徒だけど)一般化線形混合モデルを使ってみた
(実験心理学徒だけど)一般化線形混合モデルを使ってみた
 
ANOVA君とanovatan
ANOVA君とanovatanANOVA君とanovatan
ANOVA君とanovatan
 
MCMCによる回帰分析@ベイズセミナー
MCMCによる回帰分析@ベイズセミナーMCMCによる回帰分析@ベイズセミナー
MCMCによる回帰分析@ベイズセミナー
 
第一回広島ベイズ塾・最小二乗法
第一回広島ベイズ塾・最小二乗法第一回広島ベイズ塾・最小二乗法
第一回広島ベイズ塾・最小二乗法
 
Anova君を使った分散分析
Anova君を使った分散分析Anova君を使った分散分析
Anova君を使った分散分析
 
Rstudio事始め
Rstudio事始めRstudio事始め
Rstudio事始め
 
Mendeleyで簡単! 論文管理
Mendeleyで簡単! 論文管理Mendeleyで簡単! 論文管理
Mendeleyで簡単! 論文管理
 

信号検出理論 (『実践ベイズモデリング』15章)