SlideShare ist ein Scribd-Unternehmen logo
1 von 10
PRML 復々習レーン
    4.4, 4.4.1
    @risuoku
    中村直哉
4.4 ラプラス近似
問題
• 確率分布が複雑
 ― 必要な計算ができない
 — ロジスティック回帰の
   ベイズ的な取扱い
   (4.5)      (モデルはできたのに計算できない・・)


解決策
1. 解析的な近似(10章)
2. 数値的なサンプリング(11章)
今回は、ラプラス近似を利用
ラプラス近似導入
(※続き)




                         0になる
             無視する               (4.127)



4.代入して完成
 — (4.127)を変形→(4.129)
 — (4.129)を正規化→(4.130)
注意点など
                        (4.130)


• ガウス分布による近似式(4.130)が適切に定義される
  のは、A>0の場合のみ
• Aの値による関数の違い
   — 上に凸→A>0
   — 下に凸→A<0



               モードとして使える点
多次元に拡張
• 1次元の場合とほとんどいっしょ
• 「勾配」「ヘッセ行列」について、直観的な説明
 — 勾配:関数を各変数について偏微分して、ベクトルと
   して集めたもの(M次元ベクトル)
 — ヘッセ行列:重複を許した2変数の組み合わせで関数を
   偏微分して、行列として集めたもの(M×M行列)


                      (4.134)
ラプラス近似について補足・考
      察
モデルの比較とBIC
• 正規化係数Zの近似


                (4.135)


• モデルエビデンス



      (4.136)
Occam係数
                                   (4.137)

(4.137)は、条件を満たせば次のように近似できる

                         (4.139)

• N:データ数、M:θに含まれるパラメータ数
• ベイズ情報量基準(BIC) or シュワルツ基準
BICの性質
• AICと比較して、BICはモデルの複雑さにより重いペ
  ナルティを科している
 • (4.139)の、Mが大きくなる(=モデルが複雑になる)ほ
   ど、モデルエビデンスが小さくなる。AICと比較して、
   BICの方が係数部分が大きい(AICは1、BICはlnN/2)
• 多くのパラメータが「well-determined」でないた
  め、ヘッセ行列が非退化であるという仮定が多く
  の場合妥当でない問題がある
 • (4.137)を(4.139)のように近似することが妥当でない
 • ニューラルネットワークの枠組みでは、(4.137)を使って、
   もっと精度よくモデルエビデンスを推定できる

Weitere ähnliche Inhalte

Was ist angesagt?

PRML輪読#9
PRML輪読#9PRML輪読#9
PRML輪読#9matsuolab
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5matsuolab
 
PRML輪読#13
PRML輪読#13PRML輪読#13
PRML輪読#13matsuolab
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10matsuolab
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2matsuolab
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12matsuolab
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章Takushi Miki
 
2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワークTakeshi Sakaki
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8matsuolab
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6Kohei Tomita
 
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)Ryosuke Sasaki
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)Ryosuke Sasaki
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11matsuolab
 
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論Akihiro Nitta
 

Was ist angesagt? (20)

PRML輪読#9
PRML輪読#9PRML輪読#9
PRML輪読#9
 
Prml 4.3
Prml 4.3Prml 4.3
Prml 4.3
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
 
Prml 4
Prml 4Prml 4
Prml 4
 
PRML輪読#13
PRML輪読#13PRML輪読#13
PRML輪読#13
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
Prml 3 3.3
Prml 3 3.3Prml 3 3.3
Prml 3 3.3
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章
 
2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
 
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
 
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
 
PRML Chapter 5
PRML Chapter 5PRML Chapter 5
PRML Chapter 5
 
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11
 
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論
 

Andere mochten auch

PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじsleepy_yoshi
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰hagino 3000
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-sleepy_yoshi
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するsleepy_yoshi
 
MLP SVM Chapter 7 分割法
MLP SVM Chapter 7 分割法MLP SVM Chapter 7 分割法
MLP SVM Chapter 7 分割法Taikai Takeda
 
最適化超入門
最適化超入門最適化超入門
最適化超入門Takami Sato
 
今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門toilet_lunch
 
SVMについて
SVMについてSVMについて
SVMについてmknh1122
 

Andere mochten auch (11)

Prml 4.3.5
Prml 4.3.5Prml 4.3.5
Prml 4.3.5
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
 
PRML4.3.3
PRML4.3.3PRML4.3.3
PRML4.3.3
 
Prml revenge7.1.1
Prml revenge7.1.1Prml revenge7.1.1
Prml revenge7.1.1
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
 
MLP SVM Chapter 7 分割法
MLP SVM Chapter 7 分割法MLP SVM Chapter 7 分割法
MLP SVM Chapter 7 分割法
 
最適化超入門
最適化超入門最適化超入門
最適化超入門
 
今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門
 
SVMについて
SVMについてSVMについて
SVMについて
 

PRMLrevenge 4.4