SlideShare a Scribd company logo
1 of 79
Download to read offline
PRML 
2.3.8~2.5 
東京工業大学 
大学院情報理工学研究科 
計算工学専攻 
佐伯研 M1 松田 淳平 
1
自己紹介 
• 松田 淳平(@fat_daruuuuma) 
• 東工大 佐伯研 M1 
• 専門 
• Mining repository 
• Analysis operation-based history 
• SIGSE SES2014とか 
• Detect and avoid conflicts 
• Alcohol-driven development 
2
やること 
• 2.3 
• 2.3.8 周期変数 
• 2.3.9 混合ガウス分布 
• 2.4 指数型分布族 
• 2.4.1 最尤推定と十分統計量 
• 2.4.2 共役事前分布 
• 2.4.3 無情報事前分布 
• 2.5 ノンパラメトリック法 
• 2.5.1 カーネル密度推定法 
• 2.5.2 最近傍法 
3
やること 
• 2.3 
• 2.3.8 周期変数 
• 2.3.9 混合ガウス分布 
• 2.4 指数型分布族 
• 2.4.1 最尤推定と十分統計量 
• 2.4.2 共役事前分布 
• 2.4.3 無情報事前分布 
• 2.5 ノンパラメトリック法 
• 2.5.1 カーネル密度推定法 
• 2.5.2 最近傍法 
4
2.3.8 周期変数 
• ガウス分布でのモデル化 
• 万能ではないんだよ 
• 今まで 
• 直交座標系という前提 
• 今回 
• 周期変数を含んでもやりたい 
5
ガウス分布は不適切 
• 平均と分散が原点に依存する場合 
• ここでは周期変数が関わる分布 
• 風向き考慮,年周期などなど 
• 特別な措置が必要 
• 直行座標系から極座標系への変換 
• 原点に依存しない平均と分散の算出方法 
6
極座標への変換 
• ある周期θ[rad]に対する観測値を表現したい 
→ 観測値 x を x = (Rcosθ, Rsinθ)に変換 
さらに R = 1と見なして単位円に配置 
7
観測値平均及び周期平均 
• 周期θn (n = 1...N) 
• 観測値 xn=(cosθn ,sinθn), ||xn|| = 1 
• 観測値平均 x 
• 周期平均 θ 
参考 
8
フォン・ミーゼス分布 (1変数) 
• 条件付き2次元ガウス分布として導出可 
• 確率密度p(θ)は以下を満たす 
• 非負であること 
• 総和が1 
• 周期性 
• わちゃわちゃすると 
9
わちゃわちゃ1 
• 2次元(x1,x2)ガウス分布, μ=(μ1,μ2), Σ=σ2I 
• 極座標(r,θ)変換 
• x = (x1,x2) = (rcosθ, rsinθ) 
• μ1= r0cosθ0, μ2=r0sinθ0 
• 上記ガウス分布に代入 
10
わちゃわちゃ2 
• 単位円上,原点は(0,0)で考えたい・・・ 
• 青円から赤円(単位円)へ 
11
わちゃわちゃ2 
• 単位円上,原点は(0,0)で考えたい・・・ 
• r=1で条件付け && θ依存項を考える 
これがθ依存の指数部となる 
• m = r0/σ2 , 正規化係数I0(m)を用いて 
12
m, I0(m) 
• mは集中度パラメータ 
• 逆分散(精度)と類似 
• m→∞ のとき,ガウス分布に近似可 
• I0(m)は0次の第1種変形ベッセル関数 
• 半径rと周期変数θに対して変数分離をしたため, 
その相関を取るための関数 
• 今回rを定数固定なので0次 
13
m, I0(m) 
• mは集中度パラメータ 
• 逆分散(精度)と類似 
• m→∞ のとき,ガウス分布に近似可 
• mが充分に大きいとき,近似式において逆分散 
∵cos x =1− 
1 
x2 −O(x4 ) 
exp{mcos(θ −θ 0)} 
≅ exp{m− 
m(θ −θ 0)2 
2 
} 
= exp(m)exp{− 
m(θ −θ 0)2 
2 
} 
14
フォン(ry のプロット 
• 左が直交座標,右が極座標 
• mが大きくなると尖ることが直感的に分かる 
15
フォン(ry の対数尤度関数 
• θ0について最大化を考える. 
• θ0の導関数=0を使って以下を得る 
• これは最初に出た分布平均と同じ 
16
フォン(ry の対数尤度関数 
• mについても最大化を考える 
• 非常に複雑なので以下の定義を使ってしまう 
17
フォン(ry の対数尤度関数 
• M 
18
制約とおまけ 
• 単峰に限る 
• 多峰については次節 
• おまけ(他のアプローチ) 
• ヒストグラム法 
• 周辺化によるアプローチ 
• 巻き込み分布 
19
やること 
• 2.3 
• 2.3.8 周期変数 
• 2.3.9 混合ガウス分布 
• 2.4 指数型分布族 
• 2.4.1 最尤推定と十分統計量 
• 2.4.2 共役事前分布 
• 2.4.3 無情報事前分布 
• 2.5 ノンパラメトリック法 
• 2.5.1 カーネル密度推定法 
• 2.5.2 最近傍法 
20
2.3.9 混合ガウス分布 
• ガウス分布による今までのモデル化 
• 多峰データ集合には特別な解釈がいる 
• 今まで 
• 単峰を前提 
• 今回 
• 多峰なデータ分布も扱いたい 
21
Old Faithful data 
• 左: 従来の考え方 
• 右: 分布の合わせを考慮 
噴出持続時間[分] 22 
噴 
出 
間 
隔 
[分]
混合ガウス分布の考え方 
• 複数のガウス分布を線形結合 
• 結合時の係数を調整 
  → 多彩な密度関数への近似が可能 
23
混合ガウス分布 (K個) 
• 確率密度関数 
• 混合要素(各ガウス分布) 
• 混合係数 
24
周辺密度関数の導出 
25 
事前確率: 
kを選択する確率 
条件付き確率密度 
事後確率: 
負担率 
詳細は9章
混合ガウス分布の形 
• パラメータπ,μ,Σで決まる 
• 最尤推定法が使用可能だけど・・・ 
• 単純なガウス分布よりっらぃ 
• 繰り返し系の最適化手法で解を出す必要がある 
• EMアルゴリズムっていうっょぃのもある 
• あとで出ます 
26
やること 
• 2.3 
• 2.3.8 周期変数 
• 2.3.9 混合ガウス分布 
• 2.4 指数型分布族 
• 2.4.1 最尤推定と十分統計量 
• 2.4.2 共役事前分布 
• 2.4.3 無情報事前分布 
• 2.5 ノンパラメトリック法 
• 2.5.1 カーネル密度推定法 
• 2.5.2 最近傍法 
27
2.4 指数型分布族 
• xは離散だろうと連続だろうと何でもよい 
• h(x)もxの関数ならなんでもよい 
• ηは分布の自然パラメータ(正規化にどうぞ) 
• xが離散なら積分→総和に置き換え 
28
ベルヌーイ分布は? 
とおけば 
が導出できて, 
29 
ロジスティック 
シグモイド関数
多項分布(2.2.6)も可 
, 
30
μkに着目した多項分布の変換 
• M-1項がわかればラスト1項が算出可 
• 展開し直し 
31
μkに着目した多項分布の変換(続) 
として対応させる 
• わちゃわちゃすれば以下が出る 
• ソフトマックス関数と呼ばれる 
32
μkの導出のわちゃわちゃ 
1. 指数を取る 
2. 1~M-1まで総和を取る 
M−1 
Σ = 
M−1 
Σ μk 
3. 変形して  について解く 
M−1 
Σ 
4.    の形にする 
33 
μk 
M−1 
Σ 
1− μ j 
j 
= exp(ηk ) 
M−1 
Σ μk 
= exp(η) 
M−1 
k k Σ 
1− μ j 
j 
M−1 
Σ 
k 
μk 
k 
k 
exp(ηk ) 
M−1 
Σ 
k 
M−1 
Σ 
1+ exp(ηk ) 
k 
M−1 
Σ = 
1− μk 
k 
1 
M−1 
Σ 
1+ exp(ηk ) 
k 
1− μk 
k
μkに着(ry の指数型分布族表現 
34
ガウス分布さん 
• 1変数なら以下(演習をちょっと) 
35 
= 
1 
2π 
1 
σ 
exp − 
μ 2 
2σ 2 
" 
# $ 
% 
& ' 
exp 
μ /σ 2 
−1/ 2σ 2 
" 
$$ 
# 
T 
% 
'' 
& 
x 
x2 
" 
# $$ 
( 
% 
) * 
+ * 
& '' 
, 
- * 
. * 
h(x) g(η) η = 
! 
η1 
η2 
" # 
$ 
% & 
u(x) = 
x 
x2 
! 
" # 
$ 
% &
ガウス分布さんのg(η) 
T 
% 
'' 
$$ ( 
) * 
+ * 
! 
 左記からηのみでg(η)を表現可 
36 
= 
1 
2π 
1 
σ 
exp − 
μ 2 
2σ 2 
" 
# $ 
% 
& ' 
exp 
μ /σ 2 
−1/ 2σ 2 
" 
# 
& 
x 
x2 
" 
# $$ 
% 
& '' 
, 
- * 
. * 
h(x) g(η) η = 
η1 
η2 
" # 
$ 
% & 
u(x) = 
x 
x2 
! 
" # 
$ 
% & 
η2 = 
−1 
2σ 2 
1 
σ 
= −2η2 
μ =η1σ 2 = − 
η1 
2η2
やること 
• 2.3 
• 2.3.8 周期変数 
• 2.3.9 混合ガウス分布 
• 2.4 指数型分布族 
• 2.4.1 最尤推定と十分統計量 
• 2.4.2 共役事前分布 
• 2.4.3 無情報事前分布 
• 2.5 ノンパラメトリック法 
• 2.5.1 カーネル密度推定法 
• 2.5.2 最近傍法 
37
ηの値を最尤推定する 
• 正規化条件から 
• ηについて,両辺の勾配を求める 
• u(x)のn次モーメント = g(η)のn回微分 38
十分統計量の算出 
• 独立に同分布に従うデータ X={x1, x2, ..., xN} 
• 両辺の対数を取り,勾配=0として 
• 上式からηMLが得られ,変数依存が分かる 
→  のことをp(X|η)の十分統計量と呼ぶ 
39
十分統計量  
• データ集合全体を保持する必要がない 
• ベルヌーイ分布 u(x) = x 
• {xn}の総和を保持 
• ガウス分布 u(x) = (x, x2)T 
• {xn}と{xn2},それぞれの総和を保持 
• 十分統計量が活きる事例は8章で 
40
やること 
• 2.3 
• 2.3.8 周期変数 
• 2.3.9 混合ガウス分布 
• 2.4 指数型分布族 
• 2.4.1 最尤推定と十分統計量 
• 2.4.2 共役事前分布 
• 2.4.3 無情報事前分布 
• 2.5 ノンパラメトリック法 
• 2.5.1 カーネル密度推定法 
• 2.5.2 最近傍法 
41
共役事前分布 
• 事後分布ととある関係性を持っている 
• 事前分布と事後分布と同じ関数形になる 
• 自身 ∝ 自身 * 尤度関数 
• 指数型分布族の共役事前分布 
• 事後分布の形 
42
やること 
• 2.3 
• 2.3.8 周期変数 
• 2.3.9 混合ガウス分布 
• 2.4 指数型分布族 
• 2.4.1 最尤推定と十分統計量 
• 2.4.2 共役事前分布 
• 2.4.3 無情報事前分布 
• 2.5 ノンパラメトリック法 
• 2.5.1 カーネル密度推定法 
• 2.5.2 最近傍法 
43
無情報事前分布  
• 事後分布に出来る限り影響を与えない事前分布 
• 事前分布に知見がない場合に有効 
• 分布p(x|λ)に対する事前分布p(λ)=const? 
• λがK状態を取る離散変数なら? 
• 各状態確率1/Kに 
• λが連続変数なら? 
• ・・・あかん 
44
λが連続 → constはダメ 
• λの定義域が有界じゃないときどうなる? 
• 積分が発散してしまうので正規化できない 
• 変則事前分布と呼ばれる 
• 非線形な変数変換のときは? 
• 密度関数 が定数として, λ=η2とすると 
• 定数にならない・・・ 
• 事後分布が正規化されているときはおk 
45
λが連続 → constはダメ 
• λの定義域が有界じゃないときどうなる? 
• 積分が発散してしまうので正規化できない 
• 変則事前分布と呼ばれる 
• 非線形な変数変換のときは? 
• 密度関数 が定数として, λ=η2とすると 
• 定数にならない・・・ 
• 事後分布が正規化されているときはおk 
46
最尤推定では問題ない 
• 尤度関数p(x|λ)はλについて単純な形 
• この記述が正直よくわからなかった・・・ので 
以下の形で自己解釈 
• 事後確率最大化解と最尤推定解が同じ 
• このとき(最尤推定時)に限り,事後確率への事 
前分布による影響がない(気がする 
47
最尤推定では問題ない(追加11/30) 
• 尤度関数p(x|λ)はλについて単純な形 
• PRMLでいうところの複雑さ(仮説) 
• パラメータ間の依存による導出の困難さ 
• λについてパラメータ間の依存はないため,導 
出は”比較的”容易である 
• 変数変換は右記 
• 実例は下記 
• 最尤解導出に影響はない 
48
無情報事前分布の例(1 of 2) 
• 確率密度 
• μは位置パラメータ 
• この族は平行移動不変性を持つ 
• 移動不変性 = 下記の2区間に入る確率は等しい 
つまり 
さらに一般化して 
49 
要は定数
無情報事前分布の例(2 of 2) 
• 確率密度 (σ > 0) 
• σは尺度パラメータ 
• 変則事前分布になる 
• この族は尺度不変性を持つ 
• 同様に考え,2区間に入る確率が等しく 
となり, 
,  を得る 
50
ガウス様 
• 位置パラメータの例はガウス様の平均μ 
• 共役事前分布で → ∞の極限を取る 
• 尺度パラメータの例はガウス様のσ 
• 位置パラメータμを考慮済である必要 
51 
σ 2 
0
ガウス様 
• 位置サイド 
  μN=μML 
• 尺度サイド 
• 事前分布は事後条件に影響を与えていない 
52
やること 
• 2.3 
• 2.3.8 周期変数 
• 2.3.9 混合ガウス分布 
• 2.4 指数型分布族 
• 2.4.1 最尤推定と十分統計量 
• 2.4.2 共役事前分布 
• 2.4.3 無情報事前分布 
• 2.5 ノンパラメトリック法 
• 2.5.1 カーネル密度推定法 
• 2.5.2 最近傍法 
53
パラメトリックとノンp(ry 
• パラメトリックなアプローチ 
• 分布の形状 
• 少数のパラメータに依存 
• 形状自体を仮定する 
• ノンパラメトリックなアプローチ 
• 分布の形状 
• データに依存 
• 仮定が少ない 
54
ノンパラメトリックの一例 
• ヒストグラム密度推定法 
• 確率密度 
• 区間を平滑パラメータと呼ぶ 
ぼこぼこ 
峰を捉えてない 
55
ヒストグラムの特徴 
• 美味しい部分 
• ヒストグラムを求めてしまえば元データは破棄可 
• 大規模データにおいしい(ときがある) 
• データ点が逐次的に与えられても適用が容易 
• 美味しくない部分 
• 分布に関係なく,区間の縁で密度が不連続 
• 区間数の観点から次元の呪いがヤバい 
• 低次元データの可視化なら良い 
56
やること 
• 2.3 
• 2.3.8 周期変数 
• 2.3.9 混合ガウス分布 
• 2.4 指数型分布族 
• 2.4.1 最尤推定と十分統計量 
• 2.4.2 共役事前分布 
• 2.4.3 無情報事前分布 
• 2.5 ノンパラメトリック法 
• 2.5.1 カーネル密度推定法 
• 2.5.2 最近傍法 
57
カーネル密度推定法の基本方針 
• あるD次元のユークリッド空間中の未知の確率 
密度関数p(x)を推定したい 
• 前提: p(x)由来の観測値(N個)の集合を得ている 
• xを含む小さな領域Rを考慮していく 
• 2種類の推定法が存在 
• カーネル推定法 
• K近傍密度推定法 
• 2.5.2の最近傍法 
58
領域Rの性質 
• xを含む小さな領域R 
• 領域R中にある点の総数Kが2項分布へ従う 
• 平均割合 
• 平均周辺の分散 
• Nが大きくなる → 分散が0 
59
領域Rの性質(続) 
• Rが十分に小さい && 確率密度p(x)が一定と近 
似可ならば,Rの体積Vを用いて以下が成立 
• さらに  を使うと密度推定量が導出可 
60
密度推定量の制約 
• トレードオフな2つの仮定の元に存在 
1. Rが十分小さい = 考慮する領域が小さい 
2. Kが十分に大きい = 領域内の点(N)が大きい 
• K固定 → K近傍法,V固定 → カーネル推定法 
N→∞ の極限を取ると真の確率密度に収束 
61
カーネル推定法の前に 
• D次元における超立方体 
• 等長辺, 頂点の数は2D, 辺の数は2(D-1)n個 
• 点,線分,正方形,立方体・・・ 
• D次元のユークリッド空間RDにおいて,辺の長 
さγにおける超立方体の性質 
• 体積(超体積) : γD 
• 表面積(超表面積) : 2Dγ(D-1) 
62
カーネル推定法 
• 次元Dのアレ, 辺長hの超立方体を領域Rとする 
• 点の存在の是非 (カーネル関数, Parzen窓) 
• 領域内の点Kと密度関数p(x) 
※ バイナリ表現 
63
カーネル推定法 (追加11/30) 
• 次元Dのアレ, 辺長hの超立方体を領域Rとする 
• 点の存在の是非 (カーネル関数, Parzen窓) 
各成分の絶対値が1/2以下 
=> 点(0,0)辺の長さ1の超立方体の内部存在条件 
64
カーネル推定法 
• 次元Dのアレ, 辺長hの超立方体を領域Rとする 
• 点の存在の是非 (カーネル関数, Parzen窓) 
• 領域内の点Kと密度関数p(x) 
※ バイナリ表現 
65 
xを中心とする 
超立方体
カーネル推定法 
• 次元Dのアレ, 辺長hの超立方体を領域Rとする 
• 点の存在の是非 (カーネル関数, Parzen窓) 
• 領域内の点Kと密度関数p(x) 
※ バイナリ表現 
          より 
66
カーネル推定法 
• 次元Dのアレ, 辺長hの超立方体を領域Rとする 
• 点の存在の是非 (カーネル関数, Parzen窓) 
• 領域内の点Kと密度関数p(x) 
※ バイナリ表現 
67 
xnを中心とする 
超立方体とも言える
カーネル推定法とヒストグラム法 
• カーネル推定法でも超立方体の縁で不連続 
• カーネル関数選択次第ではなめらか~ 
• 以下を満たす任意の関数 
• 例えばガウスカーネル 
• hも平滑化パラメータ 
68
カーネr(ry とヒスt(ry 法の比較 
• 左のカーネルならちゃんと取れ・・・・・・・ 
• 結論: やっぱりパラメータは大事です 
69
カーネル推定法の利点/欠点 
• 訓練段階でのコストの低さ 
• 計算がいらない 
• 密度の評価にかかる計算コストが高い 
• データ集合の大きさに比例してしまうため 
70
やること 
• 2.3 
• 2.3.8 周期変数 
• 2.3.9 混合ガウス分布 
• 2.4 指数型分布族 
• 2.4.1 最尤推定と十分統計量 
• 2.4.2 共役事前分布 
• 2.4.3 無情報事前分布 
• 2.5 ノンパラメトリック法 
• 2.5.1 カーネル密度推定法 
• 2.5.2 最近傍法 
71
最近傍法の目的 
• カーネル密度推定法の制約の打破 
• 制約 : パラメータhが全カーネルで一定 
• h次第で取りこぼし,ノイズが発生するかも 
• つまりhを変えて考えていく 
72
K近傍法 
• Kを固定して良いVを求める 
• カーネル → 超立方体V中のKを数える 
• K近傍 → V中にK個入るまで球(半径)を広げる 
• 生成モデルは正規化不可 
• クラス分類に拡張可 
73
K近傍法によるクラス分類 
• 各クラスごとにK近傍法を使用後,ベイズの定 
理を適用 
• クラスCkにあるときの密度 p(x|Ck)を考える 
• 前提 
• クラスCk中にNk個の点が存在.点の総数はN 
• 新しいxに対する基本的な考え 
• xを中心としてクラスを無視してK個拾う 
• そのときの体積Vに含まれるCk及びKkを考える 
• 各事後確率を計算し,最大化するクラスに分類 
74
K近傍法によるクラス分類 
• クラス条件有り密度 
• クラス条件無し密度 
• 事前分布 
• 事後確率 
75
K近傍法によるクラス分類 
• クラス条件有り密度 
• クラス条件無し密度 
• 事前分布 
• 事後確率 
誤分類を最小 
→ 事後確率の最大化 
同順位となるクラスが存在 
→ランダム選択 
76
K近傍法によるクラス分類の例 
• Kの値によってクラス分類の分布が違う 
• Kが小さい → 細かい 
• Kが大きい → 粗い 
77
K=1|K近傍法 
• K = 1のとき,最近傍則と呼ぶ(図b) 
• N → ∞ の極限をとると,誤分類率が最大でも最 
適分類器の2倍で収まる 
78
ノンパラメトリックアプローチ 
• データ集合を保持する必要がある 
• 頭のいい探査アルゴリズムがあれば少しは減る 
• ノンパラメトリック法の制限は非常に強い 
• けどパラメトリックにも制限はある 
• 結局のところどうするの? 
• 頭よく密度モデルを見つけましょう 
• 後々. 
79

More Related Content

What's hot

8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論sleepy_yoshi
 
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじPRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじsleepy_yoshi
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰hagino 3000
 
MLaPP 5章 「ベイズ統計学」
MLaPP 5章 「ベイズ統計学」MLaPP 5章 「ベイズ統計学」
MLaPP 5章 「ベイズ統計学」moterech
 
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMCベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC基晴 出井
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論sleepy_yoshi
 
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
クラシックな機械学習の入門 2.ベイズ統計に基づく推論クラシックな機械学習の入門 2.ベイズ統計に基づく推論
クラシックな機械学習の入門 2.ベイズ統計に基づく推論Hiroshi Nakagawa
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)Takao Yamanaka
 
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Yuki Matsubara
 
PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6禎晃 山崎
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2禎晃 山崎
 

What's hot (20)

PRML2.1 2.2
PRML2.1 2.2PRML2.1 2.2
PRML2.1 2.2
 
Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5
 
PRML 8.4-8.4.3
PRML 8.4-8.4.3 PRML 8.4-8.4.3
PRML 8.4-8.4.3
 
PRML chapter7
PRML chapter7PRML chapter7
PRML chapter7
 
ベータ分布
ベータ分布ベータ分布
ベータ分布
 
PRML 2.3.1-2.3.2
PRML 2.3.1-2.3.2PRML 2.3.1-2.3.2
PRML 2.3.1-2.3.2
 
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
 
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじPRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじ
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰
 
MLaPP 5章 「ベイズ統計学」
MLaPP 5章 「ベイズ統計学」MLaPP 5章 「ベイズ統計学」
MLaPP 5章 「ベイズ統計学」
 
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMCベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論
 
Prml07
Prml07Prml07
Prml07
 
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
クラシックな機械学習の入門 2.ベイズ統計に基づく推論クラシックな機械学習の入門 2.ベイズ統計に基づく推論
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
 
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰
 
PRML 第14章
PRML 第14章PRML 第14章
PRML 第14章
 
PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
 

Viewers also liked

PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2Hiroyuki Kato
 
Try to Write A Better Commit Message
Try to Write A Better Commit MessageTry to Write A Better Commit Message
Try to Write A Better Commit MessageJunpei Matsuda
 
Application Developer Festival 2015 LT
Application Developer Festival 2015 LTApplication Developer Festival 2015 LT
Application Developer Festival 2015 LTJunpei Matsuda
 
れれれのGitおぢさん - git rerere #w8lt
れれれのGitおぢさん - git rerere #w8ltれれれのGitおぢさん - git rerere #w8lt
れれれのGitおぢさん - git rerere #w8ltJunpei Matsuda
 
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6Hiroyuki Kato
 
Kotlinで快適Android開発 #W8lt
Kotlinで快適Android開発 #W8ltKotlinで快適Android開発 #W8lt
Kotlinで快適Android開発 #W8ltJunpei Matsuda
 
Spring + Gradle + Kotlin W8LT#5
Spring + Gradle + Kotlin W8LT#5Spring + Gradle + Kotlin W8LT#5
Spring + Gradle + Kotlin W8LT#5Junpei Matsuda
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布Nagayoshi Yamashita
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布sleipnir002
 

Viewers also liked (9)

PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
 
Try to Write A Better Commit Message
Try to Write A Better Commit MessageTry to Write A Better Commit Message
Try to Write A Better Commit Message
 
Application Developer Festival 2015 LT
Application Developer Festival 2015 LTApplication Developer Festival 2015 LT
Application Developer Festival 2015 LT
 
れれれのGitおぢさん - git rerere #w8lt
れれれのGitおぢさん - git rerere #w8ltれれれのGitおぢさん - git rerere #w8lt
れれれのGitおぢさん - git rerere #w8lt
 
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
 
Kotlinで快適Android開発 #W8lt
Kotlinで快適Android開発 #W8ltKotlinで快適Android開発 #W8lt
Kotlinで快適Android開発 #W8lt
 
Spring + Gradle + Kotlin W8LT#5
Spring + Gradle + Kotlin W8LT#5Spring + Gradle + Kotlin W8LT#5
Spring + Gradle + Kotlin W8LT#5
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
 

Similar to PRML2.3.8~2.5 Slides in charge

PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2matsuolab
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章Takushi Miki
 
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)Ryosuke Sasaki
 
確率的自己位置推定
確率的自己位置推定確率的自己位置推定
確率的自己位置推定Horiguchi Shuhei
 
K070k80 点推定 区間推定
K070k80 点推定 区間推定K070k80 点推定 区間推定
K070k80 点推定 区間推定t2tarumi
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルShohei Okada
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章Shoichi Taguchi
 
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル). .
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章Masanori Takano
 
研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節Koji Matsuda
 
PRML chap.10 latter half
PRML chap.10 latter halfPRML chap.10 latter half
PRML chap.10 latter halfNarihira Takuya
 
第四回統計学勉強会@東大駒場
第四回統計学勉強会@東大駒場第四回統計学勉強会@東大駒場
第四回統計学勉強会@東大駒場Daisuke Yoneoka
 
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldNaoki Hayashi
 
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」moterech
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなしToru Imai
 

Similar to PRML2.3.8~2.5 Slides in charge (20)

Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章
 
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)
 
6 Info Theory
6 Info Theory6 Info Theory
6 Info Theory
 
確率的自己位置推定
確率的自己位置推定確率的自己位置推定
確率的自己位置推定
 
K070k80 点推定 区間推定
K070k80 点推定 区間推定K070k80 点推定 区間推定
K070k80 点推定 区間推定
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章
 
Prml 10 1
Prml 10 1Prml 10 1
Prml 10 1
 
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章
 
研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節
 
PRML chap.10 latter half
PRML chap.10 latter halfPRML chap.10 latter half
PRML chap.10 latter half
 
第四回統計学勉強会@東大駒場
第四回統計学勉強会@東大駒場第四回統計学勉強会@東大駒場
第四回統計学勉強会@東大駒場
 
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-old
 
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
 
MCMC法
MCMC法MCMC法
MCMC法
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 

Recently uploaded

次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~Kochi Eng Camp
 
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2Tokyo Institute of Technology
 
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料Tokyo Institute of Technology
 
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ssusere0a682
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024koheioishi1
 
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料Takayuki Itoh
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationYukiTerazawa
 

Recently uploaded (7)

次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
 
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
 
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
 
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
 
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
 

PRML2.3.8~2.5 Slides in charge