SlideShare ist ein Scribd-Unternehmen logo
1 von 21
Downloaden Sie, um offline zu lesen
4.5	
  ベイズロジスティック回帰
     PRML復々習レーン	
  #5	
  

          2012/11/03	
  

        @hagino3000
4.5	
  ベイズロジスティック回帰

ロジスティック回帰のベイズ的
な取り扱い
ロジスティック回帰に対して、
ベイズ推論を適用する


•  厳密にやるのは難しい	
  

•  事後確率分布がガウス分布でない	
  

•  予測分布の評価をどうするか	
  
事後確率分布がガウス分布
でない。	
  
	
  
     ラプラス近似を適用して事
後確率分布のガウス分布表
現を探索する。
事前ガウス分布の一般形

  p(w) = N(w | m0 , S0 )       4.140



  wの上の事後確率分布

  p(w | t) ∝ p(w)p(t | w)      4.141

尤度関数にロジスティック          ロジスティック回帰の場合、
シグモイド関数が含まれる          ロジスティックシグモイド
ため、ガウス分布では無い            関数が含まれる
4.141の両辺の対数を取る
ln( p(w | t))
= ln( p(w)p(t | w))
= ln( p(w)) + ln( p(t | w))
 事前ガウス分布は式4.140を使う
= ln(N(w | m0 , S0 )) + ln( p(t | w))
 ロジスティック回帰の尤度関数は式4.89
                              N
= ln(N(w | m0 , S0 )) + ln(∏ y {1− yn }
                                    tn
                                    n
                                         1−tn
                                                )
                              n=1
事前ガウス分布の項について、多変量ガウス分布の
式(2.43)を使って整理
ln(N(w | m0 , S0 ))
         1     1         1         T
= ln(      D/2  1/2
                    exp{− (x − m0 ) S0 (x − m0 )})
      (2π ) S0           2
         1     1       1
= ln(      D/2  1/2
                    ) − (x − m0 )T S0 (x − m0 )
      (2π ) S0         2
   1         T
= − (x − m0 ) S0 (x − m0 ) + const
   2
尤度関数の項について整理
       N
ln(∏ y {1− yn }
           tn
           n
                  1−tn
                         )
   n=1
   N
= ∑ (tn ln yn + (1− tn )ln(1− yn ))
  n=1
4.142の式が得られる

ln( p(w | t)) =
        1         T
       − (x − m0 ) S0 (x − m0 )
        2
         N
      + ∑ (tn ln yn + (1− tn )ln(1− yn ))
         n=1

      + const
                   T
 この時     yn = σ (w φn )
次に事後確率分布を最大化するMAP解を求める。	
  
(MAP解はなんらかの数値最適化アルゴリズムで求
める 4.4	
  ラプラス近似)	
  
求めたMAP解をWMAPとする。	
  
	
  
共分散は、負の対数尤度における2回微分行列の逆
行列で与えられる。(4.132のヘッセ行列と同じ)
 −1
S = −∇∇ ln p(w | t)
 N


      = S + ∑ yn (1− yn )φ φ
       −1
       0
                           T
                         n n
最大事後確率WMAPはガウス分布の平均、共分散の逆
行列であるヘッセ行列が求まると、事後確率分布の
ガウス分布による近似は次の式となる。	
  


q(w) = N(w | w MAP , SN )


ここまでがラプラス近似の適用	
  
予測分布
新たな特徴ベクトルφ(x)が与えられた際のクラスC1
に対する予測分布を、ラプラス近似によって導出し
たガウス分布q(w)使って近似すると。	
  

p(C1 | φ, t) =     ∫ p(C1 | φ, w)p(w | t)dw
                      T
                 ≈ ∫ σ (w φ )q(w)dw           4.145



                                 T
※4.87より     p(C1 | φ, w) = σ (w φ )
T
σ (w φ ) は、φ上への射影を通してのみwに依存する	
  

                           T
a = w φ と表すと σ (w φ ) は次の通り
        T


        wTφは常にセット、他との組み合わせでは登場しないので	
  a	
  とおける



    T                T
σ (w φ ) = ∫ δ (a − w φ )σ (a)da

    ディラックのデルタ関数(計算に便利)
よって	
  

p(C1 | φ, t) =     ∫ p(C1 | φ, w)p(w | t)dw
                      T
                 ≈ ∫ σ (w φ )q(w)dw
                               T
                 = ∫ ( ∫ σ (a − w φ )σ (a)q(w)da )dw
                               T
                 = ∫ ( ∫ σ (a − w φ )q(w)dw)σ (a)da
                 = ∫ p(a)σ (a)da
                           T
ここで	
   p(a) = ∫ δ (a − w φ )q(w)dw
平均	
  
µ a = E[a] =      ∫ p(a)a da
                            T
                = ∫ ∫ δ (a − w φ )q(w)a dw da
                            T
                = ∫ ( ∫ δ (a − w φ )a da )q(w)dw
                        T
                = ∫ q(w)w φ dw
                                T
                = ( ∫ q(w)w dw) φ
                    T       T
                = E[w] φ = w    φ
                            MAP
共分散	
  
  2
σ a = var[a] =         ∫       p(a){a 2 − Ε[a]2 }da
                       T
 4.146で	
     a=w φ
                                       T
 4.148で	
     p(a) = ∫ δ (a − w φ )q(w)dw                  をあてはめて	
  

                                       T   2       T   2
                   =   ∫ q(w){(w φ )           − (m φ ) }dw
                                                   N
                           T
                   = φ S N φ
予測分布	
  

 p(C1 | t) = ∫ σ (a)p(a)da
                                  2
              = ∫ σ (a)N(a | µ a , σ )da
                                  a

これは2.3.2節で与えられたガウス分布の周辺分布に対する結果を用いて、
直接この結果を導く事もできる。

a上での積分は、ロジスティックシグモイド関数でのガ
ウス分布のたたみ込み積分を表しており、解析的に評価
する事ができない。
a上での積分は、ロジスティックシグモイド関数でのガ
ウス分布のたたみ込み積分を表しており、解析的に評価
する事ができない。

→ ロジスティックシグモイド関数σ(a)	
  4.59とプロビット
関数 4.114	
  の逆関数の高い類似性を利用すれば良い近似
を得る事ができる。(図	
  4.9)




PATTERN	
  RECOGNITION	
  AND	
  MACHINE	
  LEARNING	
  (CM.	
  BISHOP)	
  から引用
σ(a)の代りにプロビット関数の逆関数を使って近似


p(C1 | t) = ∫ σ (a)p(a)da
                                    2
             = ∫ σ (a)N(a | µ a , σ )da
                                    a

                                        2
             ≈   ∫ Φ(λ a)N(a | µ , σ
                                a       a   )da
別のプロビット関数の逆関数で解析的に表現でき
る。具体的には以下の表現

                           2
                            $       µ          '
∫ Φ(λ a)N(a | µa, σ )da = Φ & (λ −2 + ρ 2 )1/2 )
                           a
                            %                  (
両辺に現れるプロビット関数の逆関数に	
  
近似 σ(a) φ(λa)	
  を適用
                       2               2
∫ σ (a)N(a | µ , σ
               a       a   )da ≈ σ (k(σ )µ )

ここで
    2              2        −1/2
k(σ ) = (1+ πσ / 8)
2               2
∫ σ (a)N(a | µ , σ
                a    a   )da ≈ σ (k(σ )µ )

を
                                 2
p(C1 | t) = ∫ σ (a)N(a | µ a , σ )da
                                 a


に適用すると。次の近似予測分布が得られる。
                         2
p(C1 | φ, t) = σ (k(σ )µ a )
                         a

Weitere ähnliche Inhalte

Was ist angesagt?

変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
 
2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル
Takeshi Sakaki
 

Was ist angesagt? (20)

渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
PRML 2.4
PRML 2.4PRML 2.4
PRML 2.4
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
Prml14 5
Prml14 5Prml14 5
Prml14 5
 
指数分布とポアソン分布のいけない関係
指数分布とポアソン分布のいけない関係指数分布とポアソン分布のいけない関係
指数分布とポアソン分布のいけない関係
 
連続最適化勉強会
連続最適化勉強会連続最適化勉強会
連続最適化勉強会
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
 
PRML輪読#13
PRML輪読#13PRML輪読#13
PRML輪読#13
 
Chapter2.3.6
Chapter2.3.6Chapter2.3.6
Chapter2.3.6
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
 
2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
 

Ähnlich wie PRML ベイズロジスティック回帰

公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理
Joe Suzuki
 
Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0
Koji Sekiguchi
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデル
show you
 

Ähnlich wie PRML ベイズロジスティック回帰 (20)

PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
 
PRML_titech 2.3.1 - 2.3.7
PRML_titech 2.3.1 - 2.3.7PRML_titech 2.3.1 - 2.3.7
PRML_titech 2.3.1 - 2.3.7
 
Rate-Distortion Function for Gamma Sources under Absolute-Log Distortion
Rate-Distortion Function for Gamma Sources under Absolute-Log DistortionRate-Distortion Function for Gamma Sources under Absolute-Log Distortion
Rate-Distortion Function for Gamma Sources under Absolute-Log Distortion
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル
 
Prml 4.3.6
Prml 4.3.6Prml 4.3.6
Prml 4.3.6
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
 
2013 03 25
2013 03 252013 03 25
2013 03 25
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
 
PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布
 
PRML 2.3節
PRML 2.3節PRML 2.3節
PRML 2.3節
 
PRML 10.4 - 10.6
PRML 10.4 - 10.6PRML 10.4 - 10.6
PRML 10.4 - 10.6
 
Prml 4.3.5
Prml 4.3.5Prml 4.3.5
Prml 4.3.5
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
 
公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理
 
PRML セミナー
PRML セミナーPRML セミナー
PRML セミナー
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
 
分布 isseing333
分布 isseing333分布 isseing333
分布 isseing333
 
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
 
Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデル
 

Mehr von hagino 3000

ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)
ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)
ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)
hagino 3000
 

Mehr von hagino 3000 (19)

スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習
 
Cloud DatalabとBigQueryを使ったアドホックデータ解析
Cloud DatalabとBigQueryを使ったアドホックデータ解析Cloud DatalabとBigQueryを使ったアドホックデータ解析
Cloud DatalabとBigQueryを使ったアドホックデータ解析
 
異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知
 
アドネットワークのデータ解析チームを支える技術
アドネットワークのデータ解析チームを支える技術アドネットワークのデータ解析チームを支える技術
アドネットワークのデータ解析チームを支える技術
 
Secure Code for Interactive Programming
Secure Code for Interactive ProgrammingSecure Code for Interactive Programming
Secure Code for Interactive Programming
 
ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様
ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様
ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様
 
iOS WebView App
iOS WebView AppiOS WebView App
iOS WebView App
 
Introduction of Leap Motion
Introduction of Leap MotionIntroduction of Leap Motion
Introduction of Leap Motion
 
Where does my money go チーム発表
Where does my money go チーム発表Where does my money go チーム発表
Where does my money go チーム発表
 
ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)
ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)
ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)
 
NUIとKinect
NUIとKinectNUIとKinect
NUIとKinect
 
今日からはじめるKinect Hack
今日からはじめるKinect Hack今日からはじめるKinect Hack
今日からはじめるKinect Hack
 
Introduction of Kinect Hacks
Introduction of Kinect HacksIntroduction of Kinect Hacks
Introduction of Kinect Hacks
 
JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料
JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料
JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料
 
はじめてのChaos Proxy Viewer
はじめてのChaos Proxy ViewerはじめてのChaos Proxy Viewer
はじめてのChaos Proxy Viewer
 
HTML5を使ったウェブアプリケーションの高速化
HTML5を使ったウェブアプリケーションの高速化HTML5を使ったウェブアプリケーションの高速化
HTML5を使ったウェブアプリケーションの高速化
 
逃亡の勧め
逃亡の勧め逃亡の勧め
逃亡の勧め
 
Google App Engine で初めるServerSide JavaScript
Google App Engine で初めるServerSide JavaScriptGoogle App Engine で初めるServerSide JavaScript
Google App Engine で初めるServerSide JavaScript
 
Extjs + Gears
Extjs + GearsExtjs + Gears
Extjs + Gears
 

PRML ベイズロジスティック回帰