SlideShare a Scribd company logo
1 of 43
PRML第一章
ガウス分布の最尤推定~ベイズ曲線フィッティング
立命館大学理工学部数理科学科3回生 谷口泰地
ガウス分布の最尤指定
• ガウス分布のおさらい
𝑃 𝑥 𝜇, 𝜎 =
1
2𝜋 𝜎
exp{−
𝑥 − 𝜇 2
2𝜎2
}
ガウス分布の最尤指定
…………
𝑥1 𝑥2 𝑥3 𝑥 𝑛−2 𝑥 𝑛−1 𝑥_𝑛
n個のサンプルが得られたとする。
ガウス分布の最尤指定
対数尤度関数
L 𝜇, 𝜎2
= ln Π 𝑖=1
𝑖=𝑛
𝑝 𝑥𝑖 𝜇, 𝜎2
= ln(Π 𝑖=1
𝑖=𝑛 𝟏
𝟐𝝅 𝝈
𝒆𝒙𝒑 −
𝒙𝒊 − 𝝁
𝟐
𝟐𝝈
𝟐
)
𝑃 𝑥 𝜇, 𝜎 =
1
2𝜋 𝜎
exp{−
𝑥 − 𝜇 2
2𝜎2
}
= −
𝑛
2
ln 2𝜋 −
𝑛
2
𝑙𝑛 𝜎2
−
𝒊=𝟏
𝒊=𝒏
𝒙𝒊
− 𝝁
𝟐
𝟐𝝈
𝟐
= ln(
𝟏
𝟐𝝅
𝒏
𝝈
𝒏
𝒆𝒙𝒑 −
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁
𝟐
𝟐𝝈
𝟐
)
こいつを最大化するのであった。
ガウス分布の最尤指定
対数尤度関数
𝑎𝑟𝑔𝑚𝑎𝑥 𝜇,𝜎 L(𝜇, 𝜎)
𝝁について偏微分 𝝈について偏微分
ガウス分布の最尤指定
対数尤度関数
𝝁について偏微分
𝝏
𝝏𝝁
𝑳 𝝁, 𝝈 𝟐 =
𝝏
𝝏𝝁
−
𝒏
𝟐
𝒍𝒏 𝟐𝝅 −
𝒏
𝟐
𝒍𝒏 𝝈 𝟐 −
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁
𝟐
𝟐𝝈 𝟐
𝟐 𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁
𝟐𝝈 𝟐
= 𝟎 →
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝒏𝝁 = 𝟎 → 𝝁 =
𝒊=𝟏
𝒊=𝒏
𝒙𝒊
𝒏
=
𝟐 𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁
𝟐𝝈 𝟐
サンプル平均
ガウス分布の最尤指定
対数尤度関数
𝝈について偏微分
𝝏
𝝏𝝈
𝑳 𝝁, 𝝈 =
𝝏
𝝏𝝁
−
𝒏
𝟐
𝒍𝒏 𝟐𝝅 −
𝒏
𝟐
𝒍𝒏 𝝈 𝟐 −
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁
𝟐
𝟐𝝈 𝟐
−
𝒏
𝝈
+
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁 𝟐
𝝈 𝟑
= 𝟎 → −𝒏𝝈 𝟐 +
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁 𝟐 = 𝟎 → 𝝈 𝟐 =
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁 𝟐
𝒏
= −
𝒏
𝟐
𝟐𝝈
𝝈 𝟐
+
𝟐 𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁
𝟐
𝟐𝝈 𝟑
= −
𝒏
𝝈
+
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁 𝟐
𝝈 𝟑
サンプル分散
ガウス分布の最尤指定
𝝈 𝑴𝑳
𝟐
=
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁 𝟐
𝒏
𝝁が混じってる
ガウス分布の最尤指定
𝝈 𝑴𝑳
𝟐
=
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁 𝟐
𝒏 𝝁 = 𝝁 𝑴𝑳とすればOK
でも大丈夫!
𝝁 𝑴𝑳 = 𝒊=𝟏
𝒊=𝒏
𝒙 𝒊
𝒏
は𝝈に依存しない!
ガウス分布の最尤指定
𝝈 𝑴𝑳
𝟐
=
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁 𝑴𝑳
𝟐
𝒏
𝝁 𝑴𝑳 =
𝒊=𝟏
𝒊=𝒏
𝒙𝒊
𝒏
ガウス分布の最尤推定解
ガウス分布の最尤指定
𝝁 𝑴𝑳~N 𝜇, 𝜎 としよう。
𝑬[𝝁 𝑴𝑳] = 𝑬 𝒊=𝟏
𝒊=𝒏
𝒙𝒊
𝒏
=
𝟏
𝒏
𝑬 𝒙𝒊 =
𝟏
𝒏
𝒏 𝝁 = 𝝁
しっかり分布の平均に収束してる
ガウス分布の最尤指定
𝝈 𝑴𝑳~N 𝜇, 𝜎 としよう。
𝑬[𝝈 𝑴𝑳] = 𝑬
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁 𝑴𝑳
𝟐
𝒏
=
𝟏
𝒏
{ 𝑬 { 𝒙𝒊 − 𝝁 − (𝝁 𝑴𝑳−𝝁)}^𝟐 }
=
𝟏
𝒏
{𝑬 𝒙𝒊 − 𝝁 𝟐
− 𝟐 𝒙𝒊 − 𝝁 𝝁 𝑴𝑳 − 𝝁 + 𝝁 𝑴𝑳 − 𝝁 𝟐
}
=
𝟏
𝒏
𝑬 𝒙𝒊 − 𝝁 𝟐 −
𝟐
𝒏
𝑬[ 𝝁 𝑴𝑳 − 𝝁 𝒙𝒊 − 𝝁 ] +
𝟏
𝒏
𝑬[ 𝝁 𝑴𝑳 − 𝝁 𝟐]
=
𝟏
𝒏
𝒏𝝈 𝟐 −
𝟐
𝒏
𝑬 (𝝁 𝑴𝑳−𝝁 𝒏(𝝁 𝑴𝑳 − 𝝁)] +
𝟏
𝒏
𝝈 𝟐
= 𝝈 𝟐 −
𝟐
𝒏
𝝈 𝟐 −
𝟏
𝒏
𝝈 𝟐 = 𝝈 𝟐 −
𝟏
𝒏
𝝈 𝟐 =
𝒏 − 𝟏
𝒏
𝝈^𝟐
𝝈 𝟐
になってな
い(´;ω;`)
ガウス分布の最尤指定
𝑬 𝝈 𝑴𝑳
𝟐
=
𝒏 − 𝟏
𝒏
𝝈^𝟐
𝝈 𝑴𝑳
𝟐
=
(𝒙𝒊−𝝁)^𝟐
𝒏 − 𝟏
とすれば𝑬 𝝈 𝑴𝑳
𝟐
= 𝝈 𝟐となる
不変推定量といいます。
曲線フィッティング
曲線フィッティング
• N個のサンプル𝑥 = 𝑥1, 𝑥2, … , 𝑥 𝑁
𝑇
、それに対応する𝑡 =
𝑡1, 𝑡2, … , 𝑡 𝑁
𝑇が得られた時、新たな実現値xに対して、対応す
るtを予測したい。
x
t
曲線フィッティング
準備 線形モデル
𝒚 = 𝒘 𝟎 + 𝒘 𝟏 𝝓 𝒙 + 𝒘 𝟐 𝝓 𝒙 𝟐
+ … + 𝒘 𝒏 𝝓 𝒙 𝒏
=
𝒊=𝟎
𝒊=𝒏
𝒘𝒊 𝝓(𝒙)𝒊
今回は𝝓𝒊 𝒙 = 𝒙𝒊
を使う
曲線フィッティング
準備
線形モデル
𝒚 = 𝒘 𝟎 + 𝒘 𝟏 𝒙 + 𝒘 𝟐 𝒙 𝟐
+ … + 𝒘 𝒏 𝒙 𝒏
=
𝒊=𝟎
𝒊=𝒏
𝒘𝒊 𝒙𝒊
パラメータ𝑾が与えられた時の𝒙の値を𝒚(𝐱|𝐰)と書
くことにする
曲線フィッティング
• N個のサンプルt = 𝑡1, 𝑡2, … , 𝑡 𝑁
𝑇が𝑦(𝑥|𝑤) + 𝑁(𝑡|0, 𝛽−1)に従う
とする。つまり
•∀𝒊 ∈ 𝟏, 𝟐, … , 𝑵 , 𝒕𝒊 ~ 𝑵(𝒕|𝒚 𝒙 𝒘 , 𝜷−𝟏
)である。
𝛽を精度パラメータということにする(分散の逆数)
曲線フィッティング
• 𝑷 𝒕 𝒙, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝒙 𝒘 , 𝜷−𝟏
とおく。
曲線フィッティング • 𝑷 𝒕 𝒙, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝒙 𝒘 , 𝜷−𝟏
データが𝑃(𝑡|𝑥, 𝑤, 𝛽)から独立に得られたとする
対数尤度関数
𝑳 𝒘, 𝜷 = 𝒍𝒏𝒑 𝒕 𝒙, 𝒘, 𝜷 = −
𝜷
𝟐
𝒚 𝒙 𝒏, 𝒘 − 𝒕 𝒏
𝟐
+
𝑵
𝟐
𝒍𝒏𝜷 −
𝑵
𝟐
𝐥𝐧(𝟐𝝅)
曲線フィッティング • 𝑷 𝒕 𝒙, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝒙 𝒘 , 𝜷−𝟏
対数尤度関数
𝑳 𝒘, 𝜷 = 𝒍𝒏𝒑 𝒕 𝒙, 𝒘, 𝜷 = −
𝜷
𝟐
𝒚 𝒙 𝒏, 𝒘 − 𝒕 𝒏
𝟐
+
𝑵
𝟐
𝒍𝒏𝜷 −
𝑵
𝟐
𝐥𝐧(𝟐𝝅)
→
𝝏
𝝏𝒘
−
𝜷
𝟐
𝒚 𝒙 𝒏, 𝒘 − 𝒕 𝒏
𝟐 = 𝟎 →
𝝏
𝝏𝒘
= 0
𝝏
𝝏𝒘
𝑳 𝒘, 𝜷 = 𝟎 → =
𝝏
𝝏𝒘
−
𝜷
𝟐
𝒚 𝒙 𝒏, 𝒘 − 𝒕 𝒏
𝟐 +
𝑵
𝟐
𝒍𝒏𝜷 −
𝑵
𝟐
𝐥 𝐧 𝟐𝝅 = 𝟎
𝟏
𝟐
𝒚 𝒙 𝒏, 𝒘 − 𝒕 𝒏
𝟐
二乗和誤差
曲線フィッティング • 𝑷 𝒕 𝒙, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝒙 𝒘 , 𝜷−𝟏
対数尤度関数
𝑳 𝒘, 𝜷 = 𝒍𝒏𝒑 𝒕 𝒙, 𝒘, 𝜷 = −
𝜷
𝟐
𝒚 𝒙 𝒏, 𝒘 − 𝒕 𝒏
𝟐
+
𝑵
𝟐
𝒍𝒏𝜷 −
𝑵
𝟐
𝐥𝐧(𝟐𝝅)
𝝏
𝝏𝜷
𝑳 𝒘, 𝜷 = 𝟎 →
𝟏
𝜷
=
𝟏
𝑵
𝒚 𝒙 𝒏, 𝒘 − 𝒕 𝒏
𝟐
曲線フィッティング • 𝑷 𝒕 𝒙, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝒙 𝒘 , 𝜷−𝟏
ベイズ的アプローチ1
wに関する事前分布を
𝑷 𝒘 𝜶 = 𝑵 𝒘 𝟎, 𝜶−𝟏 𝑰 =
𝜶
𝟐𝝅
𝑴+𝟏
𝟐
𝒆𝒙𝒑 −
𝜶
𝟐
𝒘 𝑻 𝒘
というガウス分布(共役分布)に従うとする。
Wの数がMとして、M+1次元ガウス分布!
事前分布のパラメータをハイ
パーパラメータという
曲線フィッティング • 𝑷 𝒕 𝒙, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝒙 𝒘 , 𝜷−𝟏
ベイズ的アプローチ1
𝒑 𝒘 𝒙, 𝒕, 𝜶, 𝜷 ∝ 𝒑 𝒕 𝒙, 𝒘, 𝜷 𝒑(𝒘|𝜶)
パラメータの事前分布尤度事後分布
曲線フィッティング • 𝑷 𝒕 𝒙, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝒙 𝒘 , 𝜷−𝟏
ベイズ的アプローチ1
𝒑 𝒘 𝒙, 𝒕, 𝜶, 𝜷 ∝ 𝒑 𝒕 𝒙, 𝒘, 𝜷 𝒑(𝒘|𝜶)
𝑷 𝒘 𝜶 = 𝑵 𝒘 𝟎, 𝜶−𝟏
𝑰 =
𝜶
𝟐𝝅
𝑴+𝟏
𝟐
𝒆𝒙𝒑 −
𝜶
𝟐
𝒘 𝑻
𝒘
= 𝒍𝒏
𝜷
𝟐𝝅
𝒆𝒙𝒑(−
𝜷 𝒕 − 𝒚 𝒙 𝒘
𝟐
𝟐
)
𝜶
𝟐𝝅
𝑴+𝟏
𝟐
𝒆𝒙𝒑 −
𝜶
𝟐
𝒘 𝑻 𝒘
𝑳 𝒘, 𝜷 = 𝒍𝒏 𝒑 𝒕 𝒙, 𝒘, 𝜷 𝒑 𝒘 𝜶
対数尤度関数
曲線フィッティング • 𝑷 𝒕 𝒙, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝒙 𝒘 , 𝜷−𝟏
ベイズ的アプローチ1
𝒑 𝒘 𝒙, 𝒕, 𝜶, 𝜷 ∝ 𝒑 𝒕 𝒙, 𝒘, 𝜷 𝒑(𝒘|𝜶)
𝑷 𝒘 𝜶 = 𝑵 𝒘 𝟎, 𝜶−𝟏
𝑰 =
𝜶
𝟐𝝅
𝑴+𝟏
𝟐
𝒆𝒙𝒑 −
𝜶
𝟐
𝒘 𝑻
𝒘
= 𝑎𝑟𝑔 𝑚𝑎𝑥 𝑙𝑛
𝛽
2𝜋
𝑒𝑥𝑝(−
𝛽 𝑡 − 𝑦 𝑥 𝑤
2
2
)
𝛼
2𝜋
𝑀+1
2
𝑒𝑥𝑝 −
𝛼
2
𝑤 𝑇 𝑤
𝑎𝑟𝑔 𝑚𝑎𝑥 𝐿 𝑤, 𝛽 = 𝑎𝑟𝑔 𝑚𝑎𝑥 𝑙𝑛 𝑝 𝑡 𝑥, 𝑤, 𝛽 𝑝 𝑤 𝛼
対数尤度関数の最大化
= 𝒂𝒓𝒈 𝒎𝒂𝒙 𝒍𝒏
𝜷
𝟐𝝅
+ 𝒍𝒏
𝜶
𝟐𝝅
𝑴+𝟏
𝟐
−
𝜷 𝒕 − 𝒚 𝒙 𝒘
𝟐
𝟐
+ −
𝜶
𝟐
𝒘 𝑻
𝒘 = argmax −
𝜷
𝟐
𝒕 − 𝒚 𝒙 𝒘
𝟐
+ −
𝜶
𝟐
𝒘 𝑻
𝒘
曲線フィッティング • 𝑷 𝒕 𝒙, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝒙 𝒘 , 𝜷−𝟏
ベイズ的アプローチ1
𝒑 𝒘 𝒙, 𝒕, 𝜶, 𝜷 ∝ 𝒑 𝒕 𝒙, 𝒘, 𝜷 𝒑(𝒘|𝜶)
𝑷 𝒘 𝜶 = 𝑵 𝒘 𝟎, 𝜶−𝟏
𝑰 =
𝜶
𝟐𝝅
𝑴+𝟏
𝟐
𝒆𝒙𝒑 −
𝜶
𝟐
𝒘 𝑻
𝒘
−
𝜷
𝟐
𝒕 − 𝒚 𝒙 𝒘
𝟐
+ −
𝜶
𝟐
𝒘 𝑻
𝒘 元の尤度関数にパラメータの指数部分が足されているだけ。
このように事後分布で最尤推定することをMAP推定といいます。
曲線フィッティング
ベイズ的アプローチ2
MAP推定では、事後確率のwについて推定を行った。(点推定)
全てのwを考慮した推定を行いたい。
曲線フィッティング
ベイズ的アプローチ2
𝒑 𝒕 𝑥, 𝒙, 𝒕 = ∫ 𝒑 𝐭 𝑥, 𝐰 𝐝𝐰𝐩 𝐰 𝐱, 𝐭
事後分布
• 𝑷 𝒕 𝑥, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝑥 𝒘 , 𝜷−𝟏
𝛽はちょっと省くね。。。
Wについて積分することでWの平均を使う
𝑬 𝒑(𝒘|𝒙,𝒕) [𝒑(𝒕|𝒙, 𝒘)]
曲線フィッティング
ベイズ的アプローチ2
𝒑 𝒕 𝑥, 𝒙, 𝒕 = 𝑵(𝒕|𝒎 𝑥 , 𝒔 𝟐 𝑥 )
𝒎 𝒙 = 𝜷𝝓 𝒙 𝑻
𝑺 𝝓 𝒙 𝒏 𝒕 𝒏
𝑺 𝟐
𝒙 = 𝜷−𝟏
+ 𝝓 𝒙 𝑻
𝑺 𝝓 𝒙
S−𝟏
= 𝜶𝑰 + 𝜷 𝝓 𝒙 𝒏
𝑻
𝝓 𝒙 𝒏
𝝓𝒊 𝒙 = 𝒙𝒊
積分結果はガウス分布になる
曲線フィッティング
ベイズ的アプローチ2 実装編
1.平均𝒎(𝒙)の計算
2.分散𝒔 𝟐
(𝒙)の計算
3. 𝑵(𝒕|𝒎 𝒙 , 𝒔 𝟐
𝒙 )の計算
曲線フィッティング ベイズ的アプローチ2 実装編
3次多項式で近似した。
order=4
曲線フィッティング ベイズ的アプローチ2 実装編
3次多項式で禁止した。
order=4
orderを増やしていけばどうなるか。。。?
曲線フィッティング ベイズ的アプローチ2 実装編
曲線フィッティング ベイズ的アプローチ2 実装編
orderが上がれば上がるほど過学習していることがわかる。
曲線フィッティング ベイズ的アプローチ2 実装編
サンプルを増やしてみる。orderを上げてみよう!
曲線フィッティング ベイズ的アプローチ2 実装編
曲線フィッティング ベイズ的アプローチ2 実装編
orderが上がっても過学習しにくい。<-サンプル数が多いから
コードはgithub
• https://github.com/takutori/Implementation/tree/master/M
L/Regression
おまけ
次元の呪い
lim
𝑑→∞
𝐸
𝑑𝑖𝑠𝑡 𝑚𝑎𝑥 𝑑 − 𝑑𝑖𝑠𝑡 𝑚𝑖𝑛(𝑑)
𝑑𝑖𝑠𝑡 𝑚𝑖𝑛(𝑑)
= 0
Reference
• パターン認識と機械学習 C.M. ビショップ
• https://qiita.com/tn1031/items/96e7131cd41df1aebe85

More Related Content

What's hot

PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10matsuolab
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門Miyoshi Yuya
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章Takushi Miki
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
PRML2.4 指数型分布族
PRML2.4 指数型分布族PRML2.4 指数型分布族
PRML2.4 指数型分布族hiroki yamaoka
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布Nagayoshi Yamashita
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
PRML 2.3 ガウス分布
PRML 2.3 ガウス分布PRML 2.3 ガウス分布
PRML 2.3 ガウス分布KokiTakamiya
 
PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布Akihiro Nitta
 
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」Koichi Hamada
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8matsuolab
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1matsuolab
 
Prml 2_3_5
Prml 2_3_5Prml 2_3_5
Prml 2_3_5brownbro
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process ModelsDeep Learning JP
 
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6Hiroyuki Kato
 

What's hot (20)

PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章
 
Chapter2.3.6
Chapter2.3.6Chapter2.3.6
Chapter2.3.6
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
PRML2.4 指数型分布族
PRML2.4 指数型分布族PRML2.4 指数型分布族
PRML2.4 指数型分布族
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
PRML 2.3 ガウス分布
PRML 2.3 ガウス分布PRML 2.3 ガウス分布
PRML 2.3 ガウス分布
 
PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布
 
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
Prml 2_3_5
Prml 2_3_5Prml 2_3_5
Prml 2_3_5
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
 
Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5
 
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
 

Similar to Prml 最尤推定からベイズ曲線フィッティング

場の量子論
場の量子論場の量子論
場の量子論M M
 
表現論 ゼミ資料
表現論 ゼミ資料表現論 ゼミ資料
表現論 ゼミ資料HanpenRobot
 
強束縛模型における多体電子状態の第2量子化表現
強束縛模型における多体電子状態の第2量子化表現強束縛模型における多体電子状態の第2量子化表現
強束縛模型における多体電子状態の第2量子化表現Kazu Ghalamkari
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」Keisuke Sugawara
 
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1sleepy_yoshi
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章Shuyo Nakatani
 
これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法kenyanonaka
 
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」Keisuke Sugawara
 
パターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データパターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データemonosuke
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)Takao Yamanaka
 
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)TakaakiYonekura
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門ryosuke-kojima
 
続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章hakusai
 
人生を豊かにする線形代数学
人生を豊かにする線形代数学人生を豊かにする線形代数学
人生を豊かにする線形代数学Fumiya Watanabe
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法Kenichi Hironaka
 
University CodeSprint 4 - Magic value
University CodeSprint 4 - Magic valueUniversity CodeSprint 4 - Magic value
University CodeSprint 4 - Magic valuesatanic
 
Fourier analysis on symmetric group
Fourier analysis on symmetric groupFourier analysis on symmetric group
Fourier analysis on symmetric groupHanpenRobot
 
コンピュータビジョン最先端ガイド6 第2章:4~4.2節
コンピュータビジョン最先端ガイド6 第2章:4~4.2節コンピュータビジョン最先端ガイド6 第2章:4~4.2節
コンピュータビジョン最先端ガイド6 第2章:4~4.2節nonane
 

Similar to Prml 最尤推定からベイズ曲線フィッティング (20)

Prml1.2.4
Prml1.2.4Prml1.2.4
Prml1.2.4
 
場の量子論
場の量子論場の量子論
場の量子論
 
表現論 ゼミ資料
表現論 ゼミ資料表現論 ゼミ資料
表現論 ゼミ資料
 
強束縛模型における多体電子状態の第2量子化表現
強束縛模型における多体電子状態の第2量子化表現強束縛模型における多体電子状態の第2量子化表現
強束縛模型における多体電子状態の第2量子化表現
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
 
これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法
 
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」
 
パターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データパターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データ
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
 
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章
 
人生を豊かにする線形代数学
人生を豊かにする線形代数学人生を豊かにする線形代数学
人生を豊かにする線形代数学
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
 
University CodeSprint 4 - Magic value
University CodeSprint 4 - Magic valueUniversity CodeSprint 4 - Magic value
University CodeSprint 4 - Magic value
 
双対性
双対性双対性
双対性
 
Fourier analysis on symmetric group
Fourier analysis on symmetric groupFourier analysis on symmetric group
Fourier analysis on symmetric group
 
コンピュータビジョン最先端ガイド6 第2章:4~4.2節
コンピュータビジョン最先端ガイド6 第2章:4~4.2節コンピュータビジョン最先端ガイド6 第2章:4~4.2節
コンピュータビジョン最先端ガイド6 第2章:4~4.2節
 

More from takutori

slackの会話ネットワークの分析、及びチャネル内活性化指標の提案
slackの会話ネットワークの分析、及びチャネル内活性化指標の提案slackの会話ネットワークの分析、及びチャネル内活性化指標の提案
slackの会話ネットワークの分析、及びチャネル内活性化指標の提案takutori
 
Slack data Analysis
Slack data AnalysisSlack data Analysis
Slack data Analysistakutori
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationtakutori
 

More from takutori (9)

slackの会話ネットワークの分析、及びチャネル内活性化指標の提案
slackの会話ネットワークの分析、及びチャネル内活性化指標の提案slackの会話ネットワークの分析、及びチャネル内活性化指標の提案
slackの会話ネットワークの分析、及びチャネル内活性化指標の提案
 
Slack data Analysis
Slack data AnalysisSlack data Analysis
Slack data Analysis
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___information
 
T-sne
T-sneT-sne
T-sne
 
Dijkstra
DijkstraDijkstra
Dijkstra
 
Heap
HeapHeap
Heap
 
T-sne
T-sneT-sne
T-sne
 
Kernel
KernelKernel
Kernel
 
Bayes
BayesBayes
Bayes
 

Prml 最尤推定からベイズ曲線フィッティング

Editor's Notes

  1. 曲線y(x|w)からN(t|0,\beta)に従う\epsilonだけ足されていると思えばよい