7. +
潜在変数zの分布の学習の仕方
n 対数尤度関数を最大化するような潜在変数z
の分布を求める
n EMアルゴリズム
n 変分推論
n EMアルゴリズム
n Estep: 事後分布p(z|x, θ)を求める
n Mstep: 完全対数尤度の期待値最大化するθを
求める
n 問題点: 事後分布はintractableなことが多い
ため、Estepが計算できない
n p(x) = ∫p(x|z)p(z)dz
n 事後分布: p(z|x) = p(x|z)p(z)/p(x)
観測変数x
12. +
潜在変数zの分布の学習の仕方
n 対数尤度 = 本物の事後分布と近似関数のKL距離 + 下限
n 下限 = 事前分布と近似関数のKL距離(正則化項) + 再構成(推論+生成)項
n 事前分布に近くなるようにしつつ、xを再構成できるようなzの分布を学習
μ
x z
σ μ σ
エンコーダ(推論) デコーダ(生成)
z ~ N(μ, σ)
q (z|x(i)
) p✓(x(i)
|z)
NN NN
x ~ N(μ, σ)
19. +
VAE vs Factor Analysis(FA)
n Factor analysisとは
n 下式の分布を仮定した連続潜在変数モデル
n
n
n 事後分布がtractableなので、EMアルゴリズムでパラメータを
学習できる
n p(x) = ∫p(x|z)p(z)dz =
n 事後分布: p(z|x) = p(x|z)p(z)/p(x) =
21. +
VAE vs Factor Analysis(FA)
n zから再構成した図
VAE: 二次元z FA: 二次元z FA: 三十次元z
22. +
参考文献
n Auto-Encoding Variational Bayes(紹介論文)
n https://arxiv.org/pdf/1312.6114.pdf
n Tutorial on Variational Autoencoders
n https://arxiv.org/pdf/1606.05908.pdf
n PRML 下巻
n http://qq3q.biz/FUPd
n Variational Autoencoder徹底解説
n http://qiita.com/kenmatsu4/items/b029d697e9995d93aa24#
%E5%8F%82%E8%80%83
n VAEのわかりやすい実装ブログ
n https://jmetzen.github.io/2015-11-27/vae.html