Submit Search
Upload
PRML2.3.8~2.5 Slides in charge
•
3 likes
•
1,442 views
Junpei Matsuda
Follow
パターン認識と機械学習 上巻 2.3.8~2.5の担当分
Read less
Read more
Education
Report
Share
Report
Share
1 of 79
Download now
Download to read offline
Recommended
Prml 2.3
Prml 2.3
Yuuki Saitoh
PRML_titech 2.3.1 - 2.3.7
PRML_titech 2.3.1 - 2.3.7
Takafumi Sakakibara
Prml 1.2,4 5,1.3|輪講資料1120
Prml 1.2,4 5,1.3|輪講資料1120
Hayato K
PRML 2.3節
PRML 2.3節
Rei Takami
Chapter2.3.6
Chapter2.3.6
Takuya Minagawa
[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)
Ryosuke Sasaki
PRML2.3.1-2.3.3
PRML2.3.1-2.3.3
とっきー Ishikawa
Chapter9 2
Chapter9 2
Takuya Minagawa
Recommended
Prml 2.3
Prml 2.3
Yuuki Saitoh
PRML_titech 2.3.1 - 2.3.7
PRML_titech 2.3.1 - 2.3.7
Takafumi Sakakibara
Prml 1.2,4 5,1.3|輪講資料1120
Prml 1.2,4 5,1.3|輪講資料1120
Hayato K
PRML 2.3節
PRML 2.3節
Rei Takami
Chapter2.3.6
Chapter2.3.6
Takuya Minagawa
[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)
Ryosuke Sasaki
PRML2.3.1-2.3.3
PRML2.3.1-2.3.3
とっきー Ishikawa
Chapter9 2
Chapter9 2
Takuya Minagawa
PRML2.1 2.2
PRML2.1 2.2
Takuto Kimura
Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5
Takuto Kimura
PRML 8.4-8.4.3
PRML 8.4-8.4.3
KunihiroTakeoka
PRML chapter7
PRML chapter7
Takahiro (Poly) Horikawa
ベータ分布
ベータ分布
Makoto Hirakawa
PRML 2.3.1-2.3.2
PRML 2.3.1-2.3.2
KunihiroTakeoka
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
sleepy_yoshi
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじ
sleepy_yoshi
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰
hagino 3000
MLaPP 5章 「ベイズ統計学」
MLaPP 5章 「ベイズ統計学」
moterech
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
基晴 出井
PRML 1.6 情報理論
PRML 1.6 情報理論
sleepy_yoshi
Prml07
Prml07
Tsukasa Fukunaga
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
Hiroshi Nakagawa
PRML 第4章
PRML 第4章
Akira Miyazawa
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
Takao Yamanaka
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Yuki Matsubara
PRML 第14章
PRML 第14章
Akira Miyazawa
PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6
禎晃 山崎
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
禎晃 山崎
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
Hiroyuki Kato
Try to Write A Better Commit Message
Try to Write A Better Commit Message
Junpei Matsuda
More Related Content
What's hot
PRML2.1 2.2
PRML2.1 2.2
Takuto Kimura
Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5
Takuto Kimura
PRML 8.4-8.4.3
PRML 8.4-8.4.3
KunihiroTakeoka
PRML chapter7
PRML chapter7
Takahiro (Poly) Horikawa
ベータ分布
ベータ分布
Makoto Hirakawa
PRML 2.3.1-2.3.2
PRML 2.3.1-2.3.2
KunihiroTakeoka
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
sleepy_yoshi
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじ
sleepy_yoshi
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰
hagino 3000
MLaPP 5章 「ベイズ統計学」
MLaPP 5章 「ベイズ統計学」
moterech
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
基晴 出井
PRML 1.6 情報理論
PRML 1.6 情報理論
sleepy_yoshi
Prml07
Prml07
Tsukasa Fukunaga
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
Hiroshi Nakagawa
PRML 第4章
PRML 第4章
Akira Miyazawa
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
Takao Yamanaka
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Yuki Matsubara
PRML 第14章
PRML 第14章
Akira Miyazawa
PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6
禎晃 山崎
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
禎晃 山崎
What's hot
(20)
PRML2.1 2.2
PRML2.1 2.2
Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5
PRML 8.4-8.4.3
PRML 8.4-8.4.3
PRML chapter7
PRML chapter7
ベータ分布
ベータ分布
PRML 2.3.1-2.3.2
PRML 2.3.1-2.3.2
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじ
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰
MLaPP 5章 「ベイズ統計学」
MLaPP 5章 「ベイズ統計学」
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
PRML 1.6 情報理論
PRML 1.6 情報理論
Prml07
Prml07
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
PRML 第4章
PRML 第4章
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰
PRML 第14章
PRML 第14章
PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
Viewers also liked
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
Hiroyuki Kato
Try to Write A Better Commit Message
Try to Write A Better Commit Message
Junpei Matsuda
Application Developer Festival 2015 LT
Application Developer Festival 2015 LT
Junpei Matsuda
れれれのGitおぢさん - git rerere #w8lt
れれれのGitおぢさん - git rerere #w8lt
Junpei Matsuda
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
Hiroyuki Kato
Kotlinで快適Android開発 #W8lt
Kotlinで快適Android開発 #W8lt
Junpei Matsuda
Spring + Gradle + Kotlin W8LT#5
Spring + Gradle + Kotlin W8LT#5
Junpei Matsuda
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
Nagayoshi Yamashita
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
sleipnir002
Viewers also liked
(9)
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
Try to Write A Better Commit Message
Try to Write A Better Commit Message
Application Developer Festival 2015 LT
Application Developer Festival 2015 LT
れれれのGitおぢさん - git rerere #w8lt
れれれのGitおぢさん - git rerere #w8lt
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
Kotlinで快適Android開発 #W8lt
Kotlinで快適Android開発 #W8lt
Spring + Gradle + Kotlin W8LT#5
Spring + Gradle + Kotlin W8LT#5
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
Similar to PRML2.3.8~2.5 Slides in charge
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
PRML輪読#2
PRML輪読#2
matsuolab
PRML読み会第一章
PRML読み会第一章
Takushi Miki
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)
Ryosuke Sasaki
6 Info Theory
6 Info Theory
melvincabatuan
確率的自己位置推定
確率的自己位置推定
Horiguchi Shuhei
K070k80 点推定 区間推定
K070k80 点推定 区間推定
t2tarumi
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
Shohei Okada
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
統計的学習の基礎_3章
統計的学習の基礎_3章
Shoichi Taguchi
Prml 10 1
Prml 10 1
正志 坪坂
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
. .
みどりぼん読書会 第4章
みどりぼん読書会 第4章
Masanori Takano
研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節
Koji Matsuda
PRML chap.10 latter half
PRML chap.10 latter half
Narihira Takuya
第四回統計学勉強会@東大駒場
第四回統計学勉強会@東大駒場
Daisuke Yoneoka
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-old
Naoki Hayashi
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
moterech
MCMC法
MCMC法
MatsuiRyo
幾何を使った統計のはなし
幾何を使った統計のはなし
Toru Imai
Similar to PRML2.3.8~2.5 Slides in charge
(20)
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
PRML輪読#2
PRML輪読#2
PRML読み会第一章
PRML読み会第一章
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)
6 Info Theory
6 Info Theory
確率的自己位置推定
確率的自己位置推定
K070k80 点推定 区間推定
K070k80 点推定 区間推定
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
統計的学習の基礎_3章
統計的学習の基礎_3章
Prml 10 1
Prml 10 1
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
みどりぼん読書会 第4章
みどりぼん読書会 第4章
研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節
PRML chap.10 latter half
PRML chap.10 latter half
第四回統計学勉強会@東大駒場
第四回統計学勉強会@東大駒場
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-old
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MCMC法
MCMC法
幾何を使った統計のはなし
幾何を使った統計のはなし
Recently uploaded
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
Kochi Eng Camp
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
Tokyo Institute of Technology
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
Tokyo Institute of Technology
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ssusere0a682
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
koheioishi1
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
Takayuki Itoh
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
YukiTerazawa
Recently uploaded
(7)
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
PRML2.3.8~2.5 Slides in charge
1.
PRML 2.3.8~2.5 東京工業大学
大学院情報理工学研究科 計算工学専攻 佐伯研 M1 松田 淳平 1
2.
自己紹介 • 松田
淳平(@fat_daruuuuma) • 東工大 佐伯研 M1 • 専門 • Mining repository • Analysis operation-based history • SIGSE SES2014とか • Detect and avoid conflicts • Alcohol-driven development 2
3.
やること • 2.3
• 2.3.8 周期変数 • 2.3.9 混合ガウス分布 • 2.4 指数型分布族 • 2.4.1 最尤推定と十分統計量 • 2.4.2 共役事前分布 • 2.4.3 無情報事前分布 • 2.5 ノンパラメトリック法 • 2.5.1 カーネル密度推定法 • 2.5.2 最近傍法 3
4.
やること • 2.3
• 2.3.8 周期変数 • 2.3.9 混合ガウス分布 • 2.4 指数型分布族 • 2.4.1 最尤推定と十分統計量 • 2.4.2 共役事前分布 • 2.4.3 無情報事前分布 • 2.5 ノンパラメトリック法 • 2.5.1 カーネル密度推定法 • 2.5.2 最近傍法 4
5.
2.3.8 周期変数 •
ガウス分布でのモデル化 • 万能ではないんだよ • 今まで • 直交座標系という前提 • 今回 • 周期変数を含んでもやりたい 5
6.
ガウス分布は不適切 • 平均と分散が原点に依存する場合
• ここでは周期変数が関わる分布 • 風向き考慮,年周期などなど • 特別な措置が必要 • 直行座標系から極座標系への変換 • 原点に依存しない平均と分散の算出方法 6
7.
極座標への変換 • ある周期θ[rad]に対する観測値を表現したい
→ 観測値 x を x = (Rcosθ, Rsinθ)に変換 さらに R = 1と見なして単位円に配置 7
8.
観測値平均及び周期平均 • 周期θn
(n = 1...N) • 観測値 xn=(cosθn ,sinθn), ||xn|| = 1 • 観測値平均 x • 周期平均 θ 参考 8
9.
フォン・ミーゼス分布 (1変数) •
条件付き2次元ガウス分布として導出可 • 確率密度p(θ)は以下を満たす • 非負であること • 総和が1 • 周期性 • わちゃわちゃすると 9
10.
わちゃわちゃ1 • 2次元(x1,x2)ガウス分布,
μ=(μ1,μ2), Σ=σ2I • 極座標(r,θ)変換 • x = (x1,x2) = (rcosθ, rsinθ) • μ1= r0cosθ0, μ2=r0sinθ0 • 上記ガウス分布に代入 10
11.
わちゃわちゃ2 • 単位円上,原点は(0,0)で考えたい・・・
• 青円から赤円(単位円)へ 11
12.
わちゃわちゃ2 • 単位円上,原点は(0,0)で考えたい・・・
• r=1で条件付け && θ依存項を考える これがθ依存の指数部となる • m = r0/σ2 , 正規化係数I0(m)を用いて 12
13.
m, I0(m) •
mは集中度パラメータ • 逆分散(精度)と類似 • m→∞ のとき,ガウス分布に近似可 • I0(m)は0次の第1種変形ベッセル関数 • 半径rと周期変数θに対して変数分離をしたため, その相関を取るための関数 • 今回rを定数固定なので0次 13
14.
m, I0(m) •
mは集中度パラメータ • 逆分散(精度)と類似 • m→∞ のとき,ガウス分布に近似可 • mが充分に大きいとき,近似式において逆分散 ∵cos x =1− 1 x2 −O(x4 ) exp{mcos(θ −θ 0)} ≅ exp{m− m(θ −θ 0)2 2 } = exp(m)exp{− m(θ −θ 0)2 2 } 14
15.
フォン(ry のプロット •
左が直交座標,右が極座標 • mが大きくなると尖ることが直感的に分かる 15
16.
フォン(ry の対数尤度関数 •
θ0について最大化を考える. • θ0の導関数=0を使って以下を得る • これは最初に出た分布平均と同じ 16
17.
フォン(ry の対数尤度関数 •
mについても最大化を考える • 非常に複雑なので以下の定義を使ってしまう 17
18.
フォン(ry の対数尤度関数 •
M 18
19.
制約とおまけ • 単峰に限る
• 多峰については次節 • おまけ(他のアプローチ) • ヒストグラム法 • 周辺化によるアプローチ • 巻き込み分布 19
20.
やること • 2.3
• 2.3.8 周期変数 • 2.3.9 混合ガウス分布 • 2.4 指数型分布族 • 2.4.1 最尤推定と十分統計量 • 2.4.2 共役事前分布 • 2.4.3 無情報事前分布 • 2.5 ノンパラメトリック法 • 2.5.1 カーネル密度推定法 • 2.5.2 最近傍法 20
21.
2.3.9 混合ガウス分布 •
ガウス分布による今までのモデル化 • 多峰データ集合には特別な解釈がいる • 今まで • 単峰を前提 • 今回 • 多峰なデータ分布も扱いたい 21
22.
Old Faithful data
• 左: 従来の考え方 • 右: 分布の合わせを考慮 噴出持続時間[分] 22 噴 出 間 隔 [分]
23.
混合ガウス分布の考え方 • 複数のガウス分布を線形結合
• 結合時の係数を調整 → 多彩な密度関数への近似が可能 23
24.
混合ガウス分布 (K個) •
確率密度関数 • 混合要素(各ガウス分布) • 混合係数 24
25.
周辺密度関数の導出 25 事前確率:
kを選択する確率 条件付き確率密度 事後確率: 負担率 詳細は9章
26.
混合ガウス分布の形 • パラメータπ,μ,Σで決まる
• 最尤推定法が使用可能だけど・・・ • 単純なガウス分布よりっらぃ • 繰り返し系の最適化手法で解を出す必要がある • EMアルゴリズムっていうっょぃのもある • あとで出ます 26
27.
やること • 2.3
• 2.3.8 周期変数 • 2.3.9 混合ガウス分布 • 2.4 指数型分布族 • 2.4.1 最尤推定と十分統計量 • 2.4.2 共役事前分布 • 2.4.3 無情報事前分布 • 2.5 ノンパラメトリック法 • 2.5.1 カーネル密度推定法 • 2.5.2 最近傍法 27
28.
2.4 指数型分布族 •
xは離散だろうと連続だろうと何でもよい • h(x)もxの関数ならなんでもよい • ηは分布の自然パラメータ(正規化にどうぞ) • xが離散なら積分→総和に置き換え 28
29.
ベルヌーイ分布は? とおけば が導出できて,
29 ロジスティック シグモイド関数
30.
多項分布(2.2.6)も可 , 30
31.
μkに着目した多項分布の変換 • M-1項がわかればラスト1項が算出可
• 展開し直し 31
32.
μkに着目した多項分布の変換(続) として対応させる •
わちゃわちゃすれば以下が出る • ソフトマックス関数と呼ばれる 32
33.
μkの導出のわちゃわちゃ 1. 指数を取る
2. 1~M-1まで総和を取る M−1 Σ = M−1 Σ μk 3. 変形して について解く M−1 Σ 4. の形にする 33 μk M−1 Σ 1− μ j j = exp(ηk ) M−1 Σ μk = exp(η) M−1 k k Σ 1− μ j j M−1 Σ k μk k k exp(ηk ) M−1 Σ k M−1 Σ 1+ exp(ηk ) k M−1 Σ = 1− μk k 1 M−1 Σ 1+ exp(ηk ) k 1− μk k
34.
μkに着(ry の指数型分布族表現 34
35.
ガウス分布さん • 1変数なら以下(演習をちょっと)
35 = 1 2π 1 σ exp − μ 2 2σ 2 " # $ % & ' exp μ /σ 2 −1/ 2σ 2 " $$ # T % '' & x x2 " # $$ ( % ) * + * & '' , - * . * h(x) g(η) η = ! η1 η2 " # $ % & u(x) = x x2 ! " # $ % &
36.
ガウス分布さんのg(η) T %
'' $$ ( ) * + * ! 左記からηのみでg(η)を表現可 36 = 1 2π 1 σ exp − μ 2 2σ 2 " # $ % & ' exp μ /σ 2 −1/ 2σ 2 " # & x x2 " # $$ % & '' , - * . * h(x) g(η) η = η1 η2 " # $ % & u(x) = x x2 ! " # $ % & η2 = −1 2σ 2 1 σ = −2η2 μ =η1σ 2 = − η1 2η2
37.
やること • 2.3
• 2.3.8 周期変数 • 2.3.9 混合ガウス分布 • 2.4 指数型分布族 • 2.4.1 最尤推定と十分統計量 • 2.4.2 共役事前分布 • 2.4.3 無情報事前分布 • 2.5 ノンパラメトリック法 • 2.5.1 カーネル密度推定法 • 2.5.2 最近傍法 37
38.
ηの値を最尤推定する • 正規化条件から
• ηについて,両辺の勾配を求める • u(x)のn次モーメント = g(η)のn回微分 38
39.
十分統計量の算出 • 独立に同分布に従うデータ
X={x1, x2, ..., xN} • 両辺の対数を取り,勾配=0として • 上式からηMLが得られ,変数依存が分かる → のことをp(X|η)の十分統計量と呼ぶ 39
40.
十分統計量 • データ集合全体を保持する必要がない
• ベルヌーイ分布 u(x) = x • {xn}の総和を保持 • ガウス分布 u(x) = (x, x2)T • {xn}と{xn2},それぞれの総和を保持 • 十分統計量が活きる事例は8章で 40
41.
やること • 2.3
• 2.3.8 周期変数 • 2.3.9 混合ガウス分布 • 2.4 指数型分布族 • 2.4.1 最尤推定と十分統計量 • 2.4.2 共役事前分布 • 2.4.3 無情報事前分布 • 2.5 ノンパラメトリック法 • 2.5.1 カーネル密度推定法 • 2.5.2 最近傍法 41
42.
共役事前分布 • 事後分布ととある関係性を持っている
• 事前分布と事後分布と同じ関数形になる • 自身 ∝ 自身 * 尤度関数 • 指数型分布族の共役事前分布 • 事後分布の形 42
43.
やること • 2.3
• 2.3.8 周期変数 • 2.3.9 混合ガウス分布 • 2.4 指数型分布族 • 2.4.1 最尤推定と十分統計量 • 2.4.2 共役事前分布 • 2.4.3 無情報事前分布 • 2.5 ノンパラメトリック法 • 2.5.1 カーネル密度推定法 • 2.5.2 最近傍法 43
44.
無情報事前分布 • 事後分布に出来る限り影響を与えない事前分布
• 事前分布に知見がない場合に有効 • 分布p(x|λ)に対する事前分布p(λ)=const? • λがK状態を取る離散変数なら? • 各状態確率1/Kに • λが連続変数なら? • ・・・あかん 44
45.
λが連続 → constはダメ
• λの定義域が有界じゃないときどうなる? • 積分が発散してしまうので正規化できない • 変則事前分布と呼ばれる • 非線形な変数変換のときは? • 密度関数 が定数として, λ=η2とすると • 定数にならない・・・ • 事後分布が正規化されているときはおk 45
46.
λが連続 → constはダメ
• λの定義域が有界じゃないときどうなる? • 積分が発散してしまうので正規化できない • 変則事前分布と呼ばれる • 非線形な変数変換のときは? • 密度関数 が定数として, λ=η2とすると • 定数にならない・・・ • 事後分布が正規化されているときはおk 46
47.
最尤推定では問題ない • 尤度関数p(x|λ)はλについて単純な形
• この記述が正直よくわからなかった・・・ので 以下の形で自己解釈 • 事後確率最大化解と最尤推定解が同じ • このとき(最尤推定時)に限り,事後確率への事 前分布による影響がない(気がする 47
48.
最尤推定では問題ない(追加11/30) • 尤度関数p(x|λ)はλについて単純な形
• PRMLでいうところの複雑さ(仮説) • パラメータ間の依存による導出の困難さ • λについてパラメータ間の依存はないため,導 出は”比較的”容易である • 変数変換は右記 • 実例は下記 • 最尤解導出に影響はない 48
49.
無情報事前分布の例(1 of 2)
• 確率密度 • μは位置パラメータ • この族は平行移動不変性を持つ • 移動不変性 = 下記の2区間に入る確率は等しい つまり さらに一般化して 49 要は定数
50.
無情報事前分布の例(2 of 2)
• 確率密度 (σ > 0) • σは尺度パラメータ • 変則事前分布になる • この族は尺度不変性を持つ • 同様に考え,2区間に入る確率が等しく となり, , を得る 50
51.
ガウス様 • 位置パラメータの例はガウス様の平均μ
• 共役事前分布で → ∞の極限を取る • 尺度パラメータの例はガウス様のσ • 位置パラメータμを考慮済である必要 51 σ 2 0
52.
ガウス様 • 位置サイド
μN=μML • 尺度サイド • 事前分布は事後条件に影響を与えていない 52
53.
やること • 2.3
• 2.3.8 周期変数 • 2.3.9 混合ガウス分布 • 2.4 指数型分布族 • 2.4.1 最尤推定と十分統計量 • 2.4.2 共役事前分布 • 2.4.3 無情報事前分布 • 2.5 ノンパラメトリック法 • 2.5.1 カーネル密度推定法 • 2.5.2 最近傍法 53
54.
パラメトリックとノンp(ry • パラメトリックなアプローチ
• 分布の形状 • 少数のパラメータに依存 • 形状自体を仮定する • ノンパラメトリックなアプローチ • 分布の形状 • データに依存 • 仮定が少ない 54
55.
ノンパラメトリックの一例 • ヒストグラム密度推定法
• 確率密度 • 区間を平滑パラメータと呼ぶ ぼこぼこ 峰を捉えてない 55
56.
ヒストグラムの特徴 • 美味しい部分
• ヒストグラムを求めてしまえば元データは破棄可 • 大規模データにおいしい(ときがある) • データ点が逐次的に与えられても適用が容易 • 美味しくない部分 • 分布に関係なく,区間の縁で密度が不連続 • 区間数の観点から次元の呪いがヤバい • 低次元データの可視化なら良い 56
57.
やること • 2.3
• 2.3.8 周期変数 • 2.3.9 混合ガウス分布 • 2.4 指数型分布族 • 2.4.1 最尤推定と十分統計量 • 2.4.2 共役事前分布 • 2.4.3 無情報事前分布 • 2.5 ノンパラメトリック法 • 2.5.1 カーネル密度推定法 • 2.5.2 最近傍法 57
58.
カーネル密度推定法の基本方針 • あるD次元のユークリッド空間中の未知の確率
密度関数p(x)を推定したい • 前提: p(x)由来の観測値(N個)の集合を得ている • xを含む小さな領域Rを考慮していく • 2種類の推定法が存在 • カーネル推定法 • K近傍密度推定法 • 2.5.2の最近傍法 58
59.
領域Rの性質 • xを含む小さな領域R
• 領域R中にある点の総数Kが2項分布へ従う • 平均割合 • 平均周辺の分散 • Nが大きくなる → 分散が0 59
60.
領域Rの性質(続) • Rが十分に小さい
&& 確率密度p(x)が一定と近 似可ならば,Rの体積Vを用いて以下が成立 • さらに を使うと密度推定量が導出可 60
61.
密度推定量の制約 • トレードオフな2つの仮定の元に存在
1. Rが十分小さい = 考慮する領域が小さい 2. Kが十分に大きい = 領域内の点(N)が大きい • K固定 → K近傍法,V固定 → カーネル推定法 N→∞ の極限を取ると真の確率密度に収束 61
62.
カーネル推定法の前に • D次元における超立方体
• 等長辺, 頂点の数は2D, 辺の数は2(D-1)n個 • 点,線分,正方形,立方体・・・ • D次元のユークリッド空間RDにおいて,辺の長 さγにおける超立方体の性質 • 体積(超体積) : γD • 表面積(超表面積) : 2Dγ(D-1) 62
63.
カーネル推定法 • 次元Dのアレ,
辺長hの超立方体を領域Rとする • 点の存在の是非 (カーネル関数, Parzen窓) • 領域内の点Kと密度関数p(x) ※ バイナリ表現 63
64.
カーネル推定法 (追加11/30) •
次元Dのアレ, 辺長hの超立方体を領域Rとする • 点の存在の是非 (カーネル関数, Parzen窓) 各成分の絶対値が1/2以下 => 点(0,0)辺の長さ1の超立方体の内部存在条件 64
65.
カーネル推定法 • 次元Dのアレ,
辺長hの超立方体を領域Rとする • 点の存在の是非 (カーネル関数, Parzen窓) • 領域内の点Kと密度関数p(x) ※ バイナリ表現 65 xを中心とする 超立方体
66.
カーネル推定法 • 次元Dのアレ,
辺長hの超立方体を領域Rとする • 点の存在の是非 (カーネル関数, Parzen窓) • 領域内の点Kと密度関数p(x) ※ バイナリ表現 より 66
67.
カーネル推定法 • 次元Dのアレ,
辺長hの超立方体を領域Rとする • 点の存在の是非 (カーネル関数, Parzen窓) • 領域内の点Kと密度関数p(x) ※ バイナリ表現 67 xnを中心とする 超立方体とも言える
68.
カーネル推定法とヒストグラム法 • カーネル推定法でも超立方体の縁で不連続
• カーネル関数選択次第ではなめらか~ • 以下を満たす任意の関数 • 例えばガウスカーネル • hも平滑化パラメータ 68
69.
カーネr(ry とヒスt(ry 法の比較
• 左のカーネルならちゃんと取れ・・・・・・・ • 結論: やっぱりパラメータは大事です 69
70.
カーネル推定法の利点/欠点 • 訓練段階でのコストの低さ
• 計算がいらない • 密度の評価にかかる計算コストが高い • データ集合の大きさに比例してしまうため 70
71.
やること • 2.3
• 2.3.8 周期変数 • 2.3.9 混合ガウス分布 • 2.4 指数型分布族 • 2.4.1 最尤推定と十分統計量 • 2.4.2 共役事前分布 • 2.4.3 無情報事前分布 • 2.5 ノンパラメトリック法 • 2.5.1 カーネル密度推定法 • 2.5.2 最近傍法 71
72.
最近傍法の目的 • カーネル密度推定法の制約の打破
• 制約 : パラメータhが全カーネルで一定 • h次第で取りこぼし,ノイズが発生するかも • つまりhを変えて考えていく 72
73.
K近傍法 • Kを固定して良いVを求める
• カーネル → 超立方体V中のKを数える • K近傍 → V中にK個入るまで球(半径)を広げる • 生成モデルは正規化不可 • クラス分類に拡張可 73
74.
K近傍法によるクラス分類 • 各クラスごとにK近傍法を使用後,ベイズの定
理を適用 • クラスCkにあるときの密度 p(x|Ck)を考える • 前提 • クラスCk中にNk個の点が存在.点の総数はN • 新しいxに対する基本的な考え • xを中心としてクラスを無視してK個拾う • そのときの体積Vに含まれるCk及びKkを考える • 各事後確率を計算し,最大化するクラスに分類 74
75.
K近傍法によるクラス分類 • クラス条件有り密度
• クラス条件無し密度 • 事前分布 • 事後確率 75
76.
K近傍法によるクラス分類 • クラス条件有り密度
• クラス条件無し密度 • 事前分布 • 事後確率 誤分類を最小 → 事後確率の最大化 同順位となるクラスが存在 →ランダム選択 76
77.
K近傍法によるクラス分類の例 • Kの値によってクラス分類の分布が違う
• Kが小さい → 細かい • Kが大きい → 粗い 77
78.
K=1|K近傍法 • K
= 1のとき,最近傍則と呼ぶ(図b) • N → ∞ の極限をとると,誤分類率が最大でも最 適分類器の2倍で収まる 78
79.
ノンパラメトリックアプローチ • データ集合を保持する必要がある
• 頭のいい探査アルゴリズムがあれば少しは減る • ノンパラメトリック法の制限は非常に強い • けどパラメトリックにも制限はある • 結局のところどうするの? • 頭よく密度モデルを見つけましょう • 後々. 79
Download now