Suche senden
Hochladen
学習係数
•
2 gefällt mir
•
3,722 views
hoxo_m
Folgen
Watanabe理論勉強会 #14 の発表資料です
Weniger lesen
Mehr lesen
Daten & Analysen
Melden
Teilen
Melden
Teilen
1 von 39
Jetzt herunterladen
Downloaden Sie, um offline zu lesen
Empfohlen
【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning
【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning
Deep Learning JP
信号処理・画像処理における凸最適化
信号処理・画像処理における凸最適化
Shunsuke Ono
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
Deep Learning JP
[第2回3D勉強会 研究紹介] Neural 3D Mesh Renderer (CVPR 2018)
[第2回3D勉強会 研究紹介] Neural 3D Mesh Renderer (CVPR 2018)
Hiroharu Kato
スペクトラル・クラスタリング
スペクトラル・クラスタリング
Akira Miyazawa
強化学習における好奇心
強化学習における好奇心
Shota Imai
【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model
【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model
Deep Learning JP
Decision Transformer: Reinforcement Learning via Sequence Modeling
Decision Transformer: Reinforcement Learning via Sequence Modeling
Yasunori Ozaki
Empfohlen
【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning
【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning
Deep Learning JP
信号処理・画像処理における凸最適化
信号処理・画像処理における凸最適化
Shunsuke Ono
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
Deep Learning JP
[第2回3D勉強会 研究紹介] Neural 3D Mesh Renderer (CVPR 2018)
[第2回3D勉強会 研究紹介] Neural 3D Mesh Renderer (CVPR 2018)
Hiroharu Kato
スペクトラル・クラスタリング
スペクトラル・クラスタリング
Akira Miyazawa
強化学習における好奇心
強化学習における好奇心
Shota Imai
【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model
【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model
Deep Learning JP
Decision Transformer: Reinforcement Learning via Sequence Modeling
Decision Transformer: Reinforcement Learning via Sequence Modeling
Yasunori Ozaki
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
Deep Learning JP
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況
Deep Learning JP
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
Kenyu Uehara
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向
SSII
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
cvpaper. challenge
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
World model
World model
harmonylab
【論文紹介】U-GAT-IT
【論文紹介】U-GAT-IT
meownoisy
【DL輪読会】Mastering Diverse Domains through World Models
【DL輪読会】Mastering Diverse Domains through World Models
Deep Learning JP
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII
動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセット
Toru Tamaki
画像処理ライブラリ OpenCV で 出来ること・出来ないこと
画像処理ライブラリ OpenCV で 出来ること・出来ないこと
Norishige Fukushima
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
Deep Learning JP
StyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNA
Kento Doi
画像キャプションと動作認識の最前線 〜データセットに注目して〜(第17回ステアラボ人工知能セミナー)
画像キャプションと動作認識の最前線 〜データセットに注目して〜(第17回ステアラボ人工知能セミナー)
STAIR Lab, Chiba Institute of Technology
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
Naoki Hayashi
2012-1110「マルチレベルモデルのはなし」(censored)
2012-1110「マルチレベルモデルのはなし」(censored)
Mizumoto Atsushi
Weitere ähnliche Inhalte
Was ist angesagt?
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
Deep Learning JP
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況
Deep Learning JP
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
Kenyu Uehara
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向
SSII
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
cvpaper. challenge
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
World model
World model
harmonylab
【論文紹介】U-GAT-IT
【論文紹介】U-GAT-IT
meownoisy
【DL輪読会】Mastering Diverse Domains through World Models
【DL輪読会】Mastering Diverse Domains through World Models
Deep Learning JP
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII
動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセット
Toru Tamaki
画像処理ライブラリ OpenCV で 出来ること・出来ないこと
画像処理ライブラリ OpenCV で 出来ること・出来ないこと
Norishige Fukushima
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
Deep Learning JP
StyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNA
Kento Doi
画像キャプションと動作認識の最前線 〜データセットに注目して〜(第17回ステアラボ人工知能セミナー)
画像キャプションと動作認識の最前線 〜データセットに注目して〜(第17回ステアラボ人工知能セミナー)
STAIR Lab, Chiba Institute of Technology
Was ist angesagt?
(20)
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
グラフィカルモデル入門
グラフィカルモデル入門
深層生成モデルと世界モデル
深層生成モデルと世界モデル
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
World model
World model
【論文紹介】U-GAT-IT
【論文紹介】U-GAT-IT
【DL輪読会】Mastering Diverse Domains through World Models
【DL輪読会】Mastering Diverse Domains through World Models
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセット
画像処理ライブラリ OpenCV で 出来ること・出来ないこと
画像処理ライブラリ OpenCV で 出来ること・出来ないこと
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
StyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNA
画像キャプションと動作認識の最前線 〜データセットに注目して〜(第17回ステアラボ人工知能セミナー)
画像キャプションと動作認識の最前線 〜データセットに注目して〜(第17回ステアラボ人工知能セミナー)
Ähnlich wie 学習係数
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
Naoki Hayashi
2012-1110「マルチレベルモデルのはなし」(censored)
2012-1110「マルチレベルモデルのはなし」(censored)
Mizumoto Atsushi
博士論文本審査スライド
博士論文本審査スライド
Ryuichi Ueda
BERTに関して
BERTに関して
Saitama Uni
第2回DARM勉強会
第2回DARM勉強会
Yoshitake Takebayashi
[DL輪読会]GENESIS: Generative Scene Inference and Sampling with Object-Centric L...
[DL輪読会]GENESIS: Generative Scene Inference and Sampling with Object-Centric L...
Deep Learning JP
Prml 10 1
Prml 10 1
正志 坪坂
Bayesian Sushistical Modeling
Bayesian Sushistical Modeling
daiki hojo
Ähnlich wie 学習係数
(8)
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
2012-1110「マルチレベルモデルのはなし」(censored)
2012-1110「マルチレベルモデルのはなし」(censored)
博士論文本審査スライド
博士論文本審査スライド
BERTに関して
BERTに関して
第2回DARM勉強会
第2回DARM勉強会
[DL輪読会]GENESIS: Generative Scene Inference and Sampling with Object-Centric L...
[DL輪読会]GENESIS: Generative Scene Inference and Sampling with Object-Centric L...
Prml 10 1
Prml 10 1
Bayesian Sushistical Modeling
Bayesian Sushistical Modeling
Mehr von hoxo_m
Shinyユーザのための非同期プログラミング入門
Shinyユーザのための非同期プログラミング入門
hoxo_m
Prophet入門【理論編】Facebookの時系列予測ツール
Prophet入門【理論編】Facebookの時系列予測ツール
hoxo_m
Prophet入門【R編】Facebookの時系列予測ツール
Prophet入門【R編】Facebookの時系列予測ツール
hoxo_m
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
Prophet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツール
hoxo_m
AJAXサイトの情報をWebスクレイピング
AJAXサイトの情報をWebスクレイピング
hoxo_m
高速なガンマ分布の最尤推定法について
高速なガンマ分布の最尤推定法について
hoxo_m
経験過程
経験過程
hoxo_m
確率論基礎
確率論基礎
hoxo_m
シンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るな
hoxo_m
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
hoxo_m
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
hoxo_m
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について
hoxo_m
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
hoxo_m
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
hoxo_m
協調フィルタリング入門
協調フィルタリング入門
hoxo_m
データの不備を統計的に見抜く (Gelman’s secret weapon)
データの不備を統計的に見抜く (Gelman’s secret weapon)
hoxo_m
カップルが一緒にお風呂に入る割合をベイズ推定してみた
カップルが一緒にお風呂に入る割合をベイズ推定してみた
hoxo_m
Stan で欠測データの相関係数を推定してみた
Stan で欠測データの相関係数を推定してみた
hoxo_m
チェビシェフの不等式
チェビシェフの不等式
hoxo_m
Mehr von hoxo_m
(20)
Shinyユーザのための非同期プログラミング入門
Shinyユーザのための非同期プログラミング入門
Prophet入門【理論編】Facebookの時系列予測ツール
Prophet入門【理論編】Facebookの時系列予測ツール
Prophet入門【R編】Facebookの時系列予測ツール
Prophet入門【R編】Facebookの時系列予測ツール
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
Prophet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツール
AJAXサイトの情報をWebスクレイピング
AJAXサイトの情報をWebスクレイピング
高速なガンマ分布の最尤推定法について
高速なガンマ分布の最尤推定法について
経験過程
経験過程
確率論基礎
確率論基礎
シンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るな
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
協調フィルタリング入門
協調フィルタリング入門
データの不備を統計的に見抜く (Gelman’s secret weapon)
データの不備を統計的に見抜く (Gelman’s secret weapon)
カップルが一緒にお風呂に入る割合をベイズ推定してみた
カップルが一緒にお風呂に入る割合をベイズ推定してみた
Stan で欠測データの相関係数を推定してみた
Stan で欠測データの相関係数を推定してみた
チェビシェフの不等式
チェビシェフの不等式
学習係数
1.
7.1 学習係数 2017/06/18 @hoxo_m 1
2.
Watanabe理論勉強会 #14 • 本資料は •
Sumio Watanabe, Algebraic Geometry and Statistical Learning Theory, Cambridge University Press, 2009. • 第14回読書会資料です。 2
3.
これまでの流れ • 1章: イントロダクション
(全体像) • 2章: 特異点理論 (特異点解消定理) • 3章: 代数幾何 (ブローアップ) • 4章: ゼータ関数と特異点積分 • 5章: 経験過程 (確率分布の収束) • 6章: 特異学習理論 (メイン定理の証明) • 7章: 特異モデル (具体例) 3
4.
7章 序⽂ • 特異モデルは⼈⼯知能、パターン認識、 ロボット制御などで使われている •
特異モデルの学習プロセスを理解するに は、特異点の影響を明らかにする必要が ある • 本章では、いくつかの具体的な学習モデ ルにおいて、特異点が引き起こす現象に ついて学ぶ 4
5.
7章 Singular Learning
Machines • 7.1 Learning Coefficient (学習係数) • 7.2 Three-Layered Neural Networks (3層ニューラルネットワーク) • 7.3 Mixture Models (混合モデル) • 7.4 Bayesian Network • 7.5 Hidden Markov Model, … 5
6.
7.1 学習係数 • 6章において、確率的複雑さと汎化誤差の 漸近挙動について調べた •
これらの漸近挙動においてゼータ関数の 最⼤の極 −λ とその位数 m が重要である • この λ を学習係数と呼ぶ • 本節では λ の性質を調べ、具体的な学習 モデルに対して λ を計算する 6
7.
学習係数 • 学習モデルの良さを評価する指標 • Fn:
確率的複雑さ(⾃由エネルギー) • Bg: 汎化誤差 • これらの漸近挙動 • 主要項の係数 λ を学習係数と呼ぶ 7
8.
学習係数 8 • 真の分布 q(x)
学習モデル p(x|w) 事前分布 φ(w) • カルバック・ライブラ距離 • ゼータ関数 の最⼤の極が −λ のとき、λ が学習係数
9.
学習係数 • 学習係数 λ
は確率的複雑さと汎化誤差の 主要項の係数 • 本節では学習係数の性質を調べる • パラメータ空間の次元 d に対して ① φ(w0) > 0 ならば λ ≦ d/2 ② Jeffreys 事前分布は λ > d/2 の場合がある ③ 具体的な学習モデルについて計算してみる 9
10.
<⽬次> • 具体的な学習モデルの学習係数の算出 例 7.1
(p.225) • 学習係数の性質 (p.217) • Jeffreysの事前分布 (p.221) 10
11.
例 7.1 (p.225) •
具体的な学習モデルについて学習係数 λ とその位数 m を算出してみる • 3層ニューラルネットワーク • Y = aσ(bX) + cσ(dX) + N • σ(x) = exp(x) – 1 11
12.
例 7.1 (p.225) http://rpubs.com/hoxo_m/284258 12
13.
<⽬次> • 具体的な学習モデルの学習係数の算出 • 学習係数の性質 –
定理 7.1 ⑴ ⑵ ⑶ ⑷ – 定理 7.2 – 定理 7.3 • Jeffreysの事前分布 13
14.
定理 7.1 ⑴⑵⑶⑷ •
例 7.1 ではゼータ関数の最⼤極として学習 係数を算出したが、別の表現もできる • 特に⑷は特異点解消が難しい場合に数値 計算で学習係数を求めるのに使える 14
15.
定理 7.1 ⑴ •
次を満たす定数 c1 > 0 が存在する • 定理 6.7 (P.173) より明らか • 定理 7.2 の証明に使う • Remark 7.2 の証明に使う 15
16.
定理 7.1 ⑵ •
次が成り⽴つ • メイン定理 6.2 (p.174) より明らか • Remark 7.2 の証明に使う 16
17.
定理 7.1 ⑶ •
次を満たす定数 c2 >0 が存在する • 定理 7.1 ⑷ の証明に使う 17
18.
定理 7.1 ⑷ •
V(t) を volume function とする • 任意の a > 0 (a ≠ 1) に対して 18
19.
定理 7.1 ⑷
証明 http://rpubs.com/hoxo_m/285350 19
20.
<⽬次> • 具体的な学習モデルの学習係数の算出 • 学習係数の性質 –
定理 7.1 ⑴ ⑵ ⑶ ⑷ – 定理 7.2 – 定理 7.3 • Jeffreysの事前分布 20
21.
定理 7.2 (p.220) •
W ⊂ Rd: パラメータの集合 • もし開集合 U ⊂ W が存在して { w ∈ U; K(w) = 0, φ(w) > 0 } が空でないならば λ ≦ d / 2 ※ 例 7.1 の学習モデルでは、 λ = 3/4 ≦ d/2 = 4/2 = 2 21
22.
定理 7.2 証明 http://rpubs.com/hoxo_m/283456 22
23.
<⽬次> • 具体的な学習モデルの学習係数の算出 • 学習係数の性質 –
定理 7.1 ⑴ ⑵ ⑶ ⑷ – 定理 7.2 – 定理 7.3 • Jeffreysの事前分布 23
24.
定理 7.3 (p.221) •
パラメータが w = (u, v) ∈ W (u ∈ Rd1, v ∈ Rd2) で表されるとき ① 任意の v に対して K(u0, v) = 0 ② 任意の v ∈ V に対して φ(u0, v) > 0 となる開 集合 V ⊂ Rd が存在する ならば λ ≦ d1 / 2 24
25.
定理 7.3 証明 http://rpubs.com/hoxo_m/283494 25
26.
Remark 7.3 ① 定理7.3の仮定を満たすとき λ
≦ d1/2 = (d – d2)/2 は学習係数のタイトバウンドでないことに注意 ② (d1, d2) と (d’1, d’2) の2つ取れるパターン λ ≦ min(d1, d’1)/2 ③ 定理7.3の仮定を満たす ⇒ {w; K(w) = 0} は d2次元多様体を含む ⇒ λ ≦ (d – d2)/2 26
27.
<⽬次> • 具体的な学習モデルの学習係数の算出 • 学習係数の性質 •
Jeffreysの事前分布 – 定義 7.1 – Remark 7.4 – Remark 7.2 – 定理 7.4 27
28.
定義 7.1 Jeffreysの事前分布 •
Fisher 情報⾏列を次で定義する • ただし • Jeffreysの事前分布とは 28
29.
Remark 7.4 (1) •
特異点では det I(w) = 0 • したがって Jeffreys の事前分布は 0 29
30.
Remark 7.4 (2) •
Jeffreys事前分布は coordinate-free • 証明: http://rpubs.com/hoxo_m/291135 30
31.
Remark 7.4 (3) •
統計モデルは (p(x|w), φ(w)) である • 統計的推定では、与えられたサンプルに 対して最適な統計モデルを推定する • p(x|w) が固定され φ(w) が coordinate- free であるような統計モデルは、⼀般的 には統計的推定に適さない 31
32.
<⽬次> • 具体的な学習モデルの学習係数の算出 • 学習係数の性質 •
Jeffreysの事前分布 – 定義 7.1 – Remark 7.4 – Remark 7.2 – 定理 7.4 32
33.
Remark 7.2 (2) •
(K1(w), φ1(w)) と (K2(w), φ2(w)) に対して K1(w) ≦ K2(w) φ1(w) ≧ φ2(w) が成り⽴つとき λ1 > λ2 または λ1 = λ2 かつ m1 ≦ m2 33
34.
Remark 7.2 (2)
証明 http://rpubs.com/hoxo_m/291482 34
35.
<⽬次> • 具体的な学習モデルの学習係数の算出 • 学習係数の性質 •
Jeffreysの事前分布 – 定義 7.1 – Remark 7.4 – Remark 7.2 – 定理 7.4 35
36.
定理 7.4 (p.222) •
Jeffreysの事前分布を採⽤したとき 1. λ = d/2 , m = 1 2. λ > d/2 のいずれかが成り⽴つ 36
37.
定理 7.4 証明 http://rpubs.com/hoxo_m/291544 37
38.
Remark 7.5 (1) •
Jeffreys事前分布を採⽤すると λ > d/2 に なる具体例 • このモデルは d = 2 だが λ = 3/2 となる • c = ab, d = a2b3 と変換すると λ = 1 38
39.
まとめ • 学習係数 λ
は確率的複雑さと汎化誤差の 主要項の係数 • 学習係数の性質として以下を⽰した • パラメータ空間の次元 d に対して ① φ(w0) > 0 ならば λ ≦ d/2 ② Jeffreys 事前分布は λ > d/2 の場合がある ③ 具体的な学習モデルの学習係数 39
Jetzt herunterladen