Suche senden
Hochladen
PRMLrevenge 4.4
•
Als PPTX, PDF herunterladen
•
1 gefällt mir
•
2,538 views
Naoya Nakamura
Folgen
#PRMLrevenge で発表した資料
Weniger lesen
Mehr lesen
Melden
Teilen
Melden
Teilen
1 von 10
Jetzt herunterladen
Empfohlen
PRML輪読#4
PRML輪読#4
matsuolab
PRML輪読#14
PRML輪読#14
matsuolab
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
Shohei Okada
PRML輪読#1
PRML輪読#1
matsuolab
PRML輪読#3
PRML輪読#3
matsuolab
PRML輪読#6
PRML輪読#6
matsuolab
PRML輪読#7
PRML輪読#7
matsuolab
Prml4 1-4-2
Prml4 1-4-2
Masahiro Kazama
Empfohlen
PRML輪読#4
PRML輪読#4
matsuolab
PRML輪読#14
PRML輪読#14
matsuolab
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
Shohei Okada
PRML輪読#1
PRML輪読#1
matsuolab
PRML輪読#3
PRML輪読#3
matsuolab
PRML輪読#6
PRML輪読#6
matsuolab
PRML輪読#7
PRML輪読#7
matsuolab
Prml4 1-4-2
Prml4 1-4-2
Masahiro Kazama
PRML輪読#9
PRML輪読#9
matsuolab
Prml 4.3
Prml 4.3
Taikai Takeda
PRML輪読#5
PRML輪読#5
matsuolab
Prml 4
Prml 4
Satoshi Kawamoto
PRML輪読#13
PRML輪読#13
matsuolab
PRML輪読#10
PRML輪読#10
matsuolab
PRML輪読#2
PRML輪読#2
matsuolab
Prml 3 3.3
Prml 3 3.3
Arata Honda
PRML輪読#12
PRML輪読#12
matsuolab
PRML読み会第一章
PRML読み会第一章
Takushi Miki
2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク
Takeshi Sakaki
PRML輪読#8
PRML輪読#8
matsuolab
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
Kohei Tomita
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
Sotetsu KOYAMADA(小山田創哲)
PRML Chapter 5
PRML Chapter 5
Masahito Ohue
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)
Ryosuke Sasaki
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
Ryosuke Sasaki
PRML輪読#11
PRML輪読#11
matsuolab
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論
Akihiro Nitta
Prml 4.3.5
Prml 4.3.5
Satoshi Kawamoto
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
Weitere ähnliche Inhalte
Was ist angesagt?
PRML輪読#9
PRML輪読#9
matsuolab
Prml 4.3
Prml 4.3
Taikai Takeda
PRML輪読#5
PRML輪読#5
matsuolab
Prml 4
Prml 4
Satoshi Kawamoto
PRML輪読#13
PRML輪読#13
matsuolab
PRML輪読#10
PRML輪読#10
matsuolab
PRML輪読#2
PRML輪読#2
matsuolab
Prml 3 3.3
Prml 3 3.3
Arata Honda
PRML輪読#12
PRML輪読#12
matsuolab
PRML読み会第一章
PRML読み会第一章
Takushi Miki
2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク
Takeshi Sakaki
PRML輪読#8
PRML輪読#8
matsuolab
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
Kohei Tomita
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
Sotetsu KOYAMADA(小山田創哲)
PRML Chapter 5
PRML Chapter 5
Masahito Ohue
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)
Ryosuke Sasaki
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
Ryosuke Sasaki
PRML輪読#11
PRML輪読#11
matsuolab
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論
Akihiro Nitta
Was ist angesagt?
(20)
PRML輪読#9
PRML輪読#9
Prml 4.3
Prml 4.3
PRML輪読#5
PRML輪読#5
Prml 4
Prml 4
PRML輪読#13
PRML輪読#13
PRML輪読#10
PRML輪読#10
PRML輪読#2
PRML輪読#2
Prml 3 3.3
Prml 3 3.3
PRML輪読#12
PRML輪読#12
PRML読み会第一章
PRML読み会第一章
2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク
PRML輪読#8
PRML輪読#8
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
PRML Chapter 5
PRML Chapter 5
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
PRML輪読#11
PRML輪読#11
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論
Andere mochten auch
Prml 4.3.5
Prml 4.3.5
Satoshi Kawamoto
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
PRML4.3.3
PRML4.3.3
sleepy_yoshi
Prml revenge7.1.1
Prml revenge7.1.1
Naoya Nakamura
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰
hagino 3000
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
MLP SVM Chapter 7 分割法
MLP SVM Chapter 7 分割法
Taikai Takeda
最適化超入門
最適化超入門
Takami Sato
今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門
toilet_lunch
SVMについて
SVMについて
mknh1122
Andere mochten auch
(11)
Prml 4.3.5
Prml 4.3.5
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
PRML4.3.3
PRML4.3.3
Prml revenge7.1.1
Prml revenge7.1.1
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
MLP SVM Chapter 7 分割法
MLP SVM Chapter 7 分割法
最適化超入門
最適化超入門
今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門
SVMについて
SVMについて
PRMLrevenge 4.4
1.
PRML 復々習レーン
4.4, 4.4.1 @risuoku 中村直哉
2.
4.4 ラプラス近似 問題 • 確率分布が複雑
― 必要な計算ができない — ロジスティック回帰の ベイズ的な取扱い (4.5) (モデルはできたのに計算できない・・) 解決策 1. 解析的な近似(10章) 2. 数値的なサンプリング(11章) 今回は、ラプラス近似を利用
3.
ラプラス近似導入
4.
(※続き)
0になる 無視する (4.127) 4.代入して完成 — (4.127)を変形→(4.129) — (4.129)を正規化→(4.130)
5.
注意点など
(4.130) • ガウス分布による近似式(4.130)が適切に定義される のは、A>0の場合のみ • Aの値による関数の違い — 上に凸→A>0 — 下に凸→A<0 モードとして使える点
6.
多次元に拡張 • 1次元の場合とほとんどいっしょ • 「勾配」「ヘッセ行列」について、直観的な説明
— 勾配:関数を各変数について偏微分して、ベクトルと して集めたもの(M次元ベクトル) — ヘッセ行列:重複を許した2変数の組み合わせで関数を 偏微分して、行列として集めたもの(M×M行列) (4.134)
7.
ラプラス近似について補足・考
察
8.
モデルの比較とBIC • 正規化係数Zの近似
(4.135) • モデルエビデンス (4.136)
9.
Occam係数
(4.137) (4.137)は、条件を満たせば次のように近似できる (4.139) • N:データ数、M:θに含まれるパラメータ数 • ベイズ情報量基準(BIC) or シュワルツ基準
10.
BICの性質 • AICと比較して、BICはモデルの複雑さにより重いペ
ナルティを科している • (4.139)の、Mが大きくなる(=モデルが複雑になる)ほ ど、モデルエビデンスが小さくなる。AICと比較して、 BICの方が係数部分が大きい(AICは1、BICはlnN/2) • 多くのパラメータが「well-determined」でないた め、ヘッセ行列が非退化であるという仮定が多く の場合妥当でない問題がある • (4.137)を(4.139)のように近似することが妥当でない • ニューラルネットワークの枠組みでは、(4.137)を使って、 もっと精度よくモデルエビデンスを推定できる
Jetzt herunterladen