SlideShare ist ein Scribd-Unternehmen logo
1 von 28
Downloaden Sie, um offline zu lesen
第3章 線形回帰モデル
@ 京大PRML輪講
システム科学専攻 石井研
M2 小山田 創哲
目次
1. 線形基底関数モデル
1.  最尤推定と最小二乗法
2.  最小二乗法の幾何学
3.  逐次学習
4.  正則化最小二乗法
5.  出力変数が多次元の場合
2. バイアス-バリアンス分解
回帰
回帰の目標は,xとそれに対応するtの観測
が与えられた時,その観測から新しいxにた
いして対応するtの値を予測することである.
本章では線形モデルによる回帰の手法を学ぶ.
今後扱うモデルの基礎として重要
3.1 線形基底関数モデル
問題設定
n 与えられるデータ
n 目標
新しい に対して
で対応する を予測する.
と
線形モデル
但し, は(非線形な)基底関数
パラメータwについて線形
様々な基底関数
n 多項式基底
n ガウス基底
n シグモイド基底
3.1.1 最尤推定と最小二乗法
確率的モデルを立てる
データの持つ不確実性はtとxの同時分布によって完
全に記述されるが,新しいxに対応するtを予測す
るという目的を考えれば,tのxが与えられた条件
付き分布のモデルを立てるのがここでは自然.
最尤推定(尤度最大化)
対数尤度を計算する.
但し
線形ガウスモデルの条件下で尤度
最大化と二乗和誤差最小化は等価
最尤推定(対数尤度の微分)
対数尤度の勾配を計算し,
0とおいて
最尤推定(結果)
擬似逆行列
3.1.2 最小二乗法の幾何学
Φへの射影
データ点からモデルの張る空間への射影が
最尤推定により定まるモデル
(証) Φ^T (t – 右辺) = 0
より直感的理解
高校生の時にならったこれと実は一緒
3.1.3 逐次学習
SGD(Stochastic Gradient Decent)
により逐次的に学習も可能.
xのサンプルが得られる度,
wを逐次的に更新
3.1.4 正則化二乗誤差関数
正則化項
ランクを補ってる
Weight decay
正則化項いろいろ
lasso
lassoは解がスパースになりやすい
lasso
スパース!
3.1.5 出力が多次元の場合
全く同じ!
3.2 バイアス-バリアンス分解
3-2 のまとめ
n 予測yの評価を(理論的に)したい
期待二乗損失
は, に分解できる.
bias: yによる予測の平均と理想的予測の差(の期待値)
variance: yによる予測のデータ依存のばらつき(分散)
noise: 理想的予測と観測値の差の平均(制御できない)
biasとvarianceにはトレードオフありがち
予測の評価
期待二乗損失による評価
これを最小にする理想的y(x)は?(復習)
真の分布は知らないので
実際には計算できない
予測の評価
証明(復習)
より
=0 で最小
noise
理想的予測をhとおく
期待二乗損失は
noise: 理想的予想を
しても出てしまう誤差
biasとvarianceに分
解する
biasとvariance
データDによってy(x, D)が決まるとする.
第1項の被積分関数 は,
Dについて期待値をとって
Bias, variance, noise
bias: yによる予測の平均と理想的予測の差(の期待値)
variance: yによる予測のデータ依存のばらつき(分散)
noise: 理想的予測と観測値の差の平均(制御できない)
biasとvarianceにはトレードオフありがち
λ 大
λ 小
モデル自由度
: 高い
モデル自由度
: 低い
bias 高い
variance 高い
variance 低い
bias 低い
トレードオフ
トレードオフ
Test errorと(bias)^2 + varianceは
λの変化に対して非常によく似た動きをする
全体私的まとめ
n 線形回帰モデルの最尤推定解はデータ点からモデ
ルの張る空間への射影という極めて直感的な形で
与えられた
n lassoはスパースな解を与えやすい
n 期待二乗損失は取り除けない本質的ノイズ
(noise)と,自分の予測と理想的予測との差
(bias),自分の予測のゆらぎ(variance)に分解
できる
n biasとvarianceの間にはトレードオフの関係が
ありがち
n 自分の予測にゆらぎが存在し,期待損失に影響与
えるというのは見落としがちな視点だと思う
おわり!ありがとうございました!

Weitere ähnliche Inhalte

Was ist angesagt?

ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
Miyoshi Yuya
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
Nagayoshi Yamashita
 

Was ist angesagt? (20)

2 4.devianceと尤度比検定
2 4.devianceと尤度比検定2 4.devianceと尤度比検定
2 4.devianceと尤度比検定
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
 
階層ベイズとWAIC
階層ベイズとWAIC階層ベイズとWAIC
階層ベイズとWAIC
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう 「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について
 
Prml 3 3.3
Prml 3 3.3Prml 3 3.3
Prml 3 3.3
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
 
MCMC法
MCMC法MCMC法
MCMC法
 
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
 
WAICとWBICのご紹介
WAICとWBICのご紹介WAICとWBICのご紹介
WAICとWBICのご紹介
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布について
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
 

Andere mochten auch (8)

Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1
 
PRMLrevenge_3.3
PRMLrevenge_3.3PRMLrevenge_3.3
PRMLrevenge_3.3
 
Prml sec3
Prml sec3Prml sec3
Prml sec3
 
Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5
 
Prml
PrmlPrml
Prml
 
【論文紹介】Reward Augmented Maximum Likelihood for Neural Structured Prediction
【論文紹介】Reward Augmented Maximum Likelihood for Neural Structured Prediction【論文紹介】Reward Augmented Maximum Likelihood for Neural Structured Prediction
【論文紹介】Reward Augmented Maximum Likelihood for Neural Structured Prediction
 
正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)
 
Stan超初心者入門
Stan超初心者入門Stan超初心者入門
Stan超初心者入門
 

Ähnlich wie PRML第3章@京大PRML輪講

Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門
Yohei Sato
 
関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA
Akisato Kimura
 
Nips yomikai 1226
Nips yomikai 1226Nips yomikai 1226
Nips yomikai 1226
Yo Ehara
 

Ähnlich wie PRML第3章@京大PRML輪講 (20)

[第2版]Python機械学習プログラミング 第10章
[第2版]Python機械学習プログラミング 第10章[第2版]Python機械学習プログラミング 第10章
[第2版]Python機械学習プログラミング 第10章
 
Rabbit challenge machine learning
Rabbit challenge machine learningRabbit challenge machine learning
Rabbit challenge machine learning
 
カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足
 
Model seminar shibata_100710
Model seminar shibata_100710Model seminar shibata_100710
Model seminar shibata_100710
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
 
PRML輪読#13
PRML輪読#13PRML輪読#13
PRML輪読#13
 
論理と計算のしくみ 5.3 型付きλ計算 (前半)
論理と計算のしくみ 5.3 型付きλ計算 (前半)論理と計算のしくみ 5.3 型付きλ計算 (前半)
論理と計算のしくみ 5.3 型付きλ計算 (前半)
 
El text.tokuron a(2019).yamamoto190627
El text.tokuron a(2019).yamamoto190627El text.tokuron a(2019).yamamoto190627
El text.tokuron a(2019).yamamoto190627
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章
 
第9回 配信講義 計算科学技術特論A(2021)
第9回 配信講義 計算科学技術特論A(2021)第9回 配信講義 計算科学技術特論A(2021)
第9回 配信講義 計算科学技術特論A(2021)
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
 
Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門
 
関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA
 
PRML 5.3-5.4
PRML 5.3-5.4PRML 5.3-5.4
PRML 5.3-5.4
 
What if ch11
What if ch11What if ch11
What if ch11
 
CMSI計算科学技術特論B(8) オーダーN法1
 CMSI計算科学技術特論B(8) オーダーN法1 CMSI計算科学技術特論B(8) オーダーN法1
CMSI計算科学技術特論B(8) オーダーN法1
 
人工知能13 deep learning
人工知能13 deep learning人工知能13 deep learning
人工知能13 deep learning
 
W8PRML5.1-5.3
W8PRML5.1-5.3W8PRML5.1-5.3
W8PRML5.1-5.3
 
Nips yomikai 1226
Nips yomikai 1226Nips yomikai 1226
Nips yomikai 1226
 
Prml12-2
Prml12-2Prml12-2
Prml12-2
 

Mehr von Sotetsu KOYAMADA(小山田創哲)

Mehr von Sotetsu KOYAMADA(小山田創哲) (10)

【論文紹介】PGQ: Combining Policy Gradient And Q-learning
【論文紹介】PGQ: Combining Policy Gradient And Q-learning【論文紹介】PGQ: Combining Policy Gradient And Q-learning
【論文紹介】PGQ: Combining Policy Gradient And Q-learning
 
【強化学習】Montezuma's Revenge @ NIPS2016
【強化学習】Montezuma's Revenge @ NIPS2016【強化学習】Montezuma's Revenge @ NIPS2016
【強化学習】Montezuma's Revenge @ NIPS2016
 
KDD2016論文読み会資料(DeepIntent)
KDD2016論文読み会資料(DeepIntent) KDD2016論文読み会資料(DeepIntent)
KDD2016論文読み会資料(DeepIntent)
 
強化学習勉強会・論文紹介(Kulkarni et al., 2016)
強化学習勉強会・論文紹介(Kulkarni et al., 2016)強化学習勉強会・論文紹介(Kulkarni et al., 2016)
強化学習勉強会・論文紹介(Kulkarni et al., 2016)
 
強化学習勉強会・論文紹介(第22回)
強化学習勉強会・論文紹介(第22回)強化学習勉強会・論文紹介(第22回)
強化学習勉強会・論文紹介(第22回)
 
Principal Sensitivity Analysis
Principal Sensitivity AnalysisPrincipal Sensitivity Analysis
Principal Sensitivity Analysis
 
KDD2015論文読み会
KDD2015論文読み会KDD2015論文読み会
KDD2015論文読み会
 
KDD2014勉強会 発表資料
KDD2014勉強会 発表資料KDD2014勉強会 発表資料
KDD2014勉強会 発表資料
 
知能型システム論(後半)
知能型システム論(後半)知能型システム論(後半)
知能型システム論(後半)
 
EMアルゴリズム
EMアルゴリズムEMアルゴリズム
EMアルゴリズム
 

PRML第3章@京大PRML輪講

Hinweis der Redaktion

  1. 100個のデータセット,それぞれN=25点,M=25,図示しているのは20/100個だけ