SlideShare ist ein Scribd-Unternehmen logo
1 von 22
Downloaden Sie, um offline zu lesen
+
論文紹介: Auto-Encoding Variational Bayes
	
CEO: すみもと	ぱんいち
@bread company
2017/9/23
+
この論文で言いたいこと	
n  データ点ごとに連続潜在変数を持つiidのデータセットにおい
て、変分下界をリパラメタリゼーションしてSGDで最適化する
ことによって、効率的に事後推論できるような手法を提案した	
n  データ点ごとに連続潜在変数?	
n  iidのデータセット?
n  変分下界?
n  SGD?	
n  リパラメタリゼーション?	
n  事後推論?
n  ※上の文がすらすら読めたら
このスライドを見る必要はありません
+
iidのデータセットとは?	
n  independent identically distributedの略
n  互いに独立で同一の分布に従うという意味
n  例えば、サイコロの目のように、前にサンプルされたデータが
次にサンプルされたデータに影響を及ぼさないこと
+
データ点ごとに連続潜在変数?	
n  例として、MNISTの70000枚のラベル付き手書き文字データ
セット(X)を考える
n  MNISTの画像一枚(x)は28×28のピクセルをもち、784次元上の
一点である
n  MNISTの潜在変数は低次元の多様体上に分布していると仮定す
る(多様体仮説)
n  この低次元の分布(連続潜在変数zの分布)を学習したい	
観測変数X	 潜在変数Z	 観測変数x
+
潜在変数zの分布の学習の仕方	
n  対数尤度関数を最大化するような潜在変数z
の分布を求める
n  EMアルゴリズム
n  変分推論
観測変数x
+
潜在変数zの分布の学習の仕方	
n  対数尤度関数を最大化するような潜在変数z
の分布を求める
n  EMアルゴリズム
n  変分推論
n  EMアルゴリズム
n  Estep: 事後分布p(z|x, θ)を求める
n  Mstep: 完全対数尤度の期待値最大化するθを
求める
+
潜在変数zの分布の学習の仕方	
n  対数尤度関数を最大化するような潜在変数z
の分布を求める
n  EMアルゴリズム
n  変分推論
n  EMアルゴリズム
n  Estep: 事後分布p(z|x, θ)を求める
n  Mstep: 完全対数尤度の期待値最大化するθを
求める
n  問題点: 事後分布はintractableなことが多い
ため、Estepが計算できない
n  p(x) = ∫p(x|z)p(z)dz
n  事後分布: p(z|x) = p(x|z)p(z)/p(x)
観測変数x
+
潜在変数zの分布の学習の仕方	
n  対数尤度関数を最大化するような潜在変数z
の分布を求める
n  EMアルゴリズム
n  変分推論
n  EMアルゴリズム
n  Estep: 事後分布p(z|x, θ)を求める
n  Mstep: 完全対数尤度の期待値最大化するθを
求める
n  問題点: 事後分布はintractableなことが多い
ため、Estepが計算できない
n  対策: 事後分布を近似する
観測変数x
+
潜在変数zの分布の学習の仕方	
n  対数尤度関数を最大化するような潜在変数z
の分布を求める
n  EMアルゴリズム
n  変分推論
n  変分推論
n  変分下界を最大化するような事後分布p(z|x)を
q(z)を使って近似する(平均場近似)
n  問題点: 変分下界を最大化する際に、事後分
布q(z)による完全対数尤度の期待値を解析的
に求める必要があるが、一般的に難しい
観測変数x
+
潜在変数zの分布の学習の仕方	
n  対数尤度関数を最大化するような潜在変数z
の分布を求める
n  EMアルゴリズム
n  変分推論
n  変分推論
n  変分下界を最大化するような事後分布p(z|x)を
q(z)を使って近似する(平均場近似)
n  問題点: 変分下界を最大化する際に、事後分
布q(z)による完全対数尤度の期待値を解析的
に求める必要があるが、一般的に難しい
n  対策: SGD(確率的勾配降下法)を使って変分
下界を最大化するパラメータを最適化する
観測変数x
+
潜在変数zの分布の学習の仕方	
n  対数尤度関数を最大化するような潜在変数zの分布を求める
n  AEVB(本手法)
n  事後分布p(z|x)をq(z|x, φ)で近似する
n  下限を最大化するようなパラメータθ, φをSGDを使って求める
iidなので、
n  対数尤度 = 本物の事後分布と近似関数のKL距離 + 下限
n  下限 = 事前分布と近似関数のKL距離(正則化項) + 再構成項
+
潜在変数zの分布の学習の仕方	
n  対数尤度 = 本物の事後分布と近似関数のKL距離 + 下限
n  下限 = 事前分布と近似関数のKL距離(正則化項) + 再構成(推論+生成)項
n  事前分布に近くなるようにしつつ、xを再構成できるようなzの分布を学習
μ	
x 	 z 	
σ	 μ	 σ	
エンコーダ(推論)	 デコーダ(生成)	
z ~ N(μ, σ)	
q (z|x(i)
) p✓(x(i)
|z)
NN NN
x ~ N(μ, σ)
+
潜在変数zの分布の学習の仕方	
n  対数尤度関数を最大化するような潜在変数z
の分布を求める
n  AEVB(本手法)
n  事後分布p(z|x)をq(z|x, φ)で近似する
n  下限を最大化するようなパラメータθ, φを
SGDを使って求める
n  正則化項はμ, σで微分可能
+
潜在変数zの分布の学習の仕方	
n  対数尤度関数を最大化するような潜在変数z
の分布を求める
n  AEVB(本手法)
n  事後分布p(z|x)をq(z|x, φ)で近似する
n  下限を最大化するようなパラメータθ, φを
SGDを使って求める
n  問題点: 下限の第二項において、期待値を計
算するためにサンプリングの必要があるが、
SGDのための勾配を求めることができない q (z|x(i)
)~	z(l)
⇡
1
L
LX
l=1
log p✓(x(i)
|z(l)
)
+
潜在変数zの分布の学習の仕方	
n  対数尤度関数を最大化するような潜在変数z
の分布を求める
n  AEVB(本手法)
n  事後分布p(z|x)をq(z|x, φ)で近似する
n  下限を最大化するようなパラメータθ, φを
SGDを使って求める
n  問題点: 下限の第二項において、期待値を計
算するためにサンプリングの必要があるが、
SGDのための勾配を求めることができない
n  対策: リパラメタリゼーションを行う
q (z|x(i)
)~	z(l)
⇡
1
L
LX
l=1
log p✓(x(i)
|z(l)
)
+
リパラメタリゼーション	
サンプリングの勾配
を求めるのは無理	
勾配のサンプリング
を求める!	
Eq (z|x(i))[log p✓(x(i)
|z)] ⇡
1
L
LX
l=1
log p✓(x(i)
|z(l)
)
q (z|x(i)
)z(l) ~	
リパラメタリゼーション	
サンプリングをμとσで微分できるようになったため、
変分下界の勾配が求められるようになった
+
モデルの全体の構造	
n  リパラメタリゼーションによって、SGDで変分下界のパ
ラメータを更新し、zの分布を学習できるようになった
n  エンコーダとデコーダが自然な形で現れ、オートエン
コーダのような形になっている
+
MNISTの実験結果	
n  二次元の潜在変数zの分布と
対応するデータxを生成さ
せた図
n  低次元の多様体上の分布が
学習されたことがわかる
+
VAE vs Factor Analysis(FA)	
n  Factor analysisとは
n  下式の分布を仮定した連続潜在変数モデル
n 
n 
n  事後分布がtractableなので、EMアルゴリズムでパラメータを
学習できる
n  p(x) = ∫p(x|z)p(z)dz =
n  事後分布: p(z|x) = p(x|z)p(z)/p(x) =
+
VAE vs Factor Analysis(FA)	
n  潜在変数zを二次元にして可視化	
VAE	 FA
+
VAE vs Factor Analysis(FA)	
n  zから再構成した図
VAE: 二次元z	 FA: 二次元z	 FA: 三十次元z
+
参考文献	
n  Auto-Encoding Variational Bayes(紹介論文)
n  https://arxiv.org/pdf/1312.6114.pdf
n  Tutorial on Variational Autoencoders
n  https://arxiv.org/pdf/1606.05908.pdf
n  PRML 下巻
n  http://qq3q.biz/FUPd
n  Variational Autoencoder徹底解説
n  http://qiita.com/kenmatsu4/items/b029d697e9995d93aa24#
%E5%8F%82%E8%80%83
n  VAEのわかりやすい実装ブログ
n  https://jmetzen.github.io/2015-11-27/vae.html

Weitere ähnliche Inhalte

Was ist angesagt?

[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative ModelsDeep Learning JP
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデルMasahiro Suzuki
 
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-Shiga University, RIKEN
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...Deep Learning JP
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向ohken
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational AutoencoderDeep Learning JP
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理Taiji Suzuki
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布Junya Saito
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展Shiga University, RIKEN
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?Fumihiko Takahashi
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
「世界モデル」と関連研究について
「世界モデル」と関連研究について「世界モデル」と関連研究について
「世界モデル」と関連研究についてMasahiro Suzuki
 
Variational AutoEncoder
Variational AutoEncoderVariational AutoEncoder
Variational AutoEncoderKazuki Nitta
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明Satoshi Hara
 
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual FeaturesARISE analytics
 
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)Shuyo Nakatani
 

Was ist angesagt? (20)

[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
 
Iclr2016 vaeまとめ
Iclr2016 vaeまとめIclr2016 vaeまとめ
Iclr2016 vaeまとめ
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
[DL輪読会]World Models
[DL輪読会]World Models[DL輪読会]World Models
[DL輪読会]World Models
 
「世界モデル」と関連研究について
「世界モデル」と関連研究について「世界モデル」と関連研究について
「世界モデル」と関連研究について
 
Variational AutoEncoder
Variational AutoEncoderVariational AutoEncoder
Variational AutoEncoder
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
 
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
 
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)
 

Mehr von ぱんいち すみもと

ICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミぱんいち すみもと
 
Free lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibrationFree lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibrationぱんいち すみもと
 
最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介ぱんいち すみもと
 
Anomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial NetworksAnomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial Networksぱんいち すみもと
 
ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ぱんいち すみもと
 
パンハウスゼミ 異常検知論文紹介 20191005
パンハウスゼミ 異常検知論文紹介  20191005パンハウスゼミ 異常検知論文紹介  20191005
パンハウスゼミ 異常検知論文紹介 20191005ぱんいち すみもと
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたぱんいち すみもと
 
Categorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmaxCategorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmaxぱんいち すみもと
 

Mehr von ぱんいち すみもと (20)

ICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミ
 
Free lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibrationFree lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibration
 
Anomaly detection survey
Anomaly detection surveyAnomaly detection survey
Anomaly detection survey
 
最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介
 
continual learning survey
continual learning surveycontinual learning survey
continual learning survey
 
Contrastive learning 20200607
Contrastive learning 20200607Contrastive learning 20200607
Contrastive learning 20200607
 
Variational denoising network
Variational denoising networkVariational denoising network
Variational denoising network
 
Deep Semi-Supervised Anomaly Detection
Deep Semi-Supervised Anomaly DetectionDeep Semi-Supervised Anomaly Detection
Deep Semi-Supervised Anomaly Detection
 
Anomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial NetworksAnomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial Networks
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)
 
パンハウスゼミ 異常検知論文紹介 20191005
パンハウスゼミ 異常検知論文紹介  20191005パンハウスゼミ 異常検知論文紹介  20191005
パンハウスゼミ 異常検知論文紹介 20191005
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
 
最新の異常検知手法(NIPS 2018)
最新の異常検知手法(NIPS 2018)最新の異常検知手法(NIPS 2018)
最新の異常検知手法(NIPS 2018)
 
Dual dl
Dual dlDual dl
Dual dl
 
Categorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmaxCategorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmax
 
Domain transfer サーベイ
Domain transfer サーベイDomain transfer サーベイ
Domain transfer サーベイ
 
Intro VAE
Intro VAEIntro VAE
Intro VAE
 
PRML 14章
PRML 14章PRML 14章
PRML 14章
 
PRML 9章
PRML 9章PRML 9章
PRML 9章
 

パンでも分かるVariational Autoencoder