SlideShare ist ein Scribd-Unternehmen logo
1 von 14
Downloaden Sie, um offline zu lesen
Denoising Diffusion Probabilistic Models
重要 式 解説
正田 備也
masada@rikkyo.ac.jp
September 13, 2020
1 / 14
q(xt|x0) 求
2 / 14
q(x2|x0) =
∫
q(x2|x1)q(x1|x0)dx1 =
d∏
j=1
∫
q(x2,j|x1,j)q(x1,j|x0,j)dx1,j
=
d∏
j=1
∫
1
√
(2π)2β2β1
exp
(
−
(x2,j −
√
1 − β2x1,j)2
2β2
−
(x1,j −
√
1 − β1x0,j)2
2β1
)
dx1,j (1)
exp(·) 中身 注目 。
(x2,j −
√
1 − β2x1,j)2
2β2
+
(x1,j −
√
1 − β1x0,j)2
2β1
=
(β1 + β2 − β1β2)x2
1,j − 2(β1
√
1 − β2x2,j + β2
√
1 − β1x0,j)x1,j + β1x2
2,j + β2(1 − β1)x2
0,j
2β1β2
=
β1 + β2 − β1β2
2β1β2
{(
x1,j −
β1
√
1 − β2x2,j + β2
√
1 − β1x0,j
β1 + β2 − β1β2
)2
−
β2
1(1 − β2)x2
2,j + β2
2(1 − β1)x2
0,j + 2β1β2
√
(1 − β2)(1 − β1)x2,jx0,j
(β1 + β2 − β1β2)2
+
β1x2
2,j + β2x2
0,j
β1 + β2 − β1β2
}
3 / 14
=
β1 + β2 − β1β2
2β1β2
{(
x1,j −
β1
√
1 − β2x2,j + β2
√
1 − β1x0,j
β1 + β2 − β1β2
)2
+
β1β2(x2
2,j − 2
√
(1 − β2)(1 − β1)x2,jx0,j + x2
0,j)
(β1 + β2 − β1β2)2
}
=
β1 + β2 − β1β2
2β1β2
(
x1,j −
β1
√
1 − β2x2,j + β2
√
1 − β1x0,j
β1 + β2 − β1β2
)2
+
(x2
2,j − 2
√
(1 − β2)(1 − β1)x2,jx0,j + x2
0,j)
2(β1 + β2 − β1β2)
(2)
∫
exp
(
−
β1 + β2 − β1β2
2β1β2
(
x1,j −
β1
√
1 − β2x2,j + β2
√
1 − β1x0,j
β1 + β2 − β1β2
)2)
dx1,j =
√
2πβ1β2
β1 + β2 − β1β2
(3)
4 / 14
∫
q(x2,j|x1,j)q(x1,j|x0,j)dx1,j
=
1
√
(2π)2β2β1
√
2πβ1β2
β1 + β2 − β1β2
exp
(
−
(x2
2,j − 2
√
(1 − β2)(1 − β1)x2,jx0,j + x2
0,j)
2(β1 + β2 − β1β2)
)
=
1
√
2π(β1 + β2 − β1β2)
exp
(
−
(x2
2,j − 2
√
(1 − β2)(1 − β1)x2,jx0,j + x2
0,j)
2(β1 + β2 − β1β2)
)
(4)
以上 、
q(x2,j|x0,j) ∼ N(
√
(1 − β2)(1 − β1)x0,j, β1 + β2 − β1β2) (5)
分 。 、αt = 1 − βt ¯αt =
∏t
s=1 αs 、
q(x2,j|x0,j) ∼ N(
√
¯α2x0,j, 1 − ¯α2) (6)
。 j = 1, . . . , d 、
q(x2|x0) ∼ N(
√
¯α2x0, (1 − ¯α2)I) (7)
5 / 14
q(x3|x0) =
∫
q(x3|x2)q(x2|x0)dx2 =
d∏
j=1
∫
q(x3,j|x2,j)q(x2,j|x0,j)dx2,j
=
d∏
j=1
∫
1
√
(2π)2β3(1 − ¯α2)
exp
(
−
(x3,j −
√
1 − β3x2,j)2
2β3
−
(x2,j −
√
¯α2x0,j)2
2(1 − ¯α2)
)
dx2,j (8)
q(x2|x0) 求 式 、β2 β3 、β1 1 − ¯α2 置 換 。 、
q(x3,j|x0,j) ∼ N(
√
(1 − β3)¯α2x0,j, 1 − ¯α2 + β3 ¯α2) (9)
分 。(1 − β3)¯α2 = α3 ¯α2 = ¯α3 1 − ¯α2 + β3 ¯α2 = 1 − α3 ¯α2 = 1 − ¯α3 、
q(x3,j|x0,j) ∼ N(
√
¯α3x0,j, 1 − ¯α3) (10)
以下同様 考
q(xt|x0) ∼ N(
√
¯αtx0, (1 − ¯αt)I) (11)
( 、論文 式 (4) 通 。)
6 / 14
q(xt−1|xt, x0) 求
7 / 14
q(xt−1|xt, x0) ∝ q(xt|xt−1)q(xt−1|x0) =
d∏
j=1
q(xt,j|xt−1,j)q(xt−1,j|x0,j)
=
d∏
j=1
1
√
(2π)2βt(1 − ¯αt−1)
exp
(
−
(xt,j −
√
1 − βtxt−1,j)2
2βt
−
(xt−1,j −
√
¯αt−1x0,j)2
2(1 − ¯αt−1)
)
(12)
(xt,j −
√
1 − βtxt−1,j)2
2βt
+
(xt−1,j −
√
¯αt−1x0,j)2
2(1 − ¯αt−1)
=
1 − ¯αt−1 + βt − (1 − ¯αt−1)βt
2(1 − ¯αt−1)βt
(
xt−1,j −
(1 − ¯αt−1)
√
1 − βtxt,j + βt
√
¯αt−1x0,j
1 − ¯αt−1 + βt − (1 − ¯αt−1)βt
)2
+ const.
=
1 − ¯αt
2(1 − ¯αt−1)βt
(
xt−1,j −
(1 − ¯αt−1)
√
αtxt,j + βt
√
¯αt−1x0,j
1 − ¯αt
)2
+ const. (13)
8 / 14
q(xt−1,j|xt,j, x0,j) ∼ N
((1 − ¯αt−1)
√
αtxt,j + βt
√
¯αt−1x0,j
1 − ¯αt
,
(1 − ¯αt−1)βt
1 − ¯αt
)
(14)
j = 1, . . . , d 、
q(xt−1|xt, x0) ∼ N
((1 − ¯αt−1)
√
αtxt + βt
√
¯αt−1x0
1 − ¯αt
,
(1 − ¯αt−1)βt
1 − ¯αt
I
)
(15)
( 、論文 式 (6) 式 (7) 通 。)
9 / 14
ELBO 求
10 / 14
ln p(x0) = ln
∫
p(x0:T )dx1:T = ln
∫
p(xT )
T∏
t=1
p(xt−1|xt)dx1:T
= ln
∫
q(x1:T |x0)
p(xT )
∏T
t=1 p(xt−1|xt)
q(x1:T |x0)
dx1:T
≥
∫
q(x1:T |x0) ln
p(xT )
∏T
t=1 p(xt−1|xt)
q(x1:T |x0)
dx1:T
=
∫
q(x1:T |x0) ln
p(xT )
∏T
t=1 p(xt−1|xt)
∏T
t=1 q(xt|xt−1)
dx1:T
= Eq
[
ln p(xT ) +
T∑
t=1
ln
p(xt−1|xt)
q(xt|xt−1)
]
= Eq
[
ln p(xT ) +
T∑
t=2
ln
p(xt−1|xt)
q(xt|xt−1)
+ ln
p(x0|x1)
q(x1|x0)
]
(16)
11 / 14
q(xt−1|xt, x0) =
q(xt, xt−1|x0)
q(xt|x0)
=
q(xt|xt−1, x0)q(xt−1|x0)
q(xt|x0)
=
q(xt|xt−1)q(xt−1|x0)
q(xt|x0)
(17)
、最後 等号 性 仮定 、成 立 。
∴ ln p(x0) ≥ Eq
[
ln p(xT ) +
T∑
t=2
ln
p(xt−1|xt)
q(xt−1|xt, x0)
·
q(xt−1|x0)
q(xt|x0)
+ ln
p(x0|x1)
q(x1|x0)
]
= Eq
[
ln p(xT ) +
T∑
t=2
ln
p(xt−1|xt)
q(xt−1|xt, x0)
+
T∑
t=2
ln q(xt−1|x0) −
T∑
t=2
ln q(xt|x0) + ln
p(x0|x1)
q(x1|x0)
]
= Eq
[
ln p(xT ) +
T∑
t=2
ln
p(xt−1|xt)
q(xt−1|xt, x0)
+ ln q(x1|x0) − ln q(xT |x0) + ln
p(x0|x1)
q(x1|x0)
]
= Eq
[
ln
p(xT )
q(xT |x0)
+
T∑
t=2
ln
p(xt−1|xt)
q(xt−1|xt, x0)
+ ln p(x0|x1)
]
(18)
12 / 14
p(xt−1|xt) =
∏d
j=1
1√
2πσt
exp
(
−
(xt−1,j −µj (xt,t))2
2σ2
t
)
。
ln
p(xt−1|xt)
q(xt−1|xt, x0)
= −
d∑
j=1
(xt−1,j − µj(xt, t))2
2σ2
t
+
d∑
j=1
(xt−1,j −
(1−¯αt−1)
√
αtxt,j +βt
√
¯αt−1x0,j
1−¯αt
)2
2(1−¯αt−1)βt
1−¯αt
+ const. (19)
論文 σ2
t = (1−¯αt−1)βt
1−¯αt
仮定 、
ln
p(xt−1|xt)
q(xt−1|xt, x0)
=
1
2σ2
t
d∑
j=1
[
2xt−1,j
(
µj(xt, t) −
(1 − ¯αt−1)
√
αtxt,j + βt
√
¯αt−1x0,j
1 − ¯αt
)
− µj(xt, t)2
+
(
(1 − ¯αt−1)
√
αtxt,j + βt
√
¯αt−1x0,j
1 − ¯αt
)2]
+ const. (20)
13 / 14
∫
q(xt−1|xt, x0) ln
p(xt−1|xt)
q(xt−1|xt, x0)
dxt−1
=
1
2σ2
t
d∑
j=1
[
2
(1 − ¯αt−1)
√
αtxt,j + βt
√
¯αt−1x0,j
1 − ¯αt
(
µj(xt, t) −
(1 − ¯αt−1)
√
αtxt,j + βt
√
¯αt−1x0,j
1 − ¯αt
)
− µj(xt, t)2
+
(
(1 − ¯αt−1)
√
αtxt,j + βt
√
¯αt−1x0,j
1 − ¯αt
)2]
+ const.
= −
1
2σ2
t
d∑
j=1
(
µj(xt, t)2
−
(1 − ¯αt−1)
√
αtxt,j + βt
√
¯αt−1x0,j
1 − ¯αt
)2
+ const. (21)
( 、論文 式 (8) 符号 逆 。論文 negative log evidence upper
bound 求 、 解説 log evidence lower bound 求 、符号
逆 。)
14 / 14

Weitere ähnliche Inhalte

Was ist angesagt?

変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
 

Was ist angesagt? (20)

【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
Variational AutoEncoder
Variational AutoEncoderVariational AutoEncoder
Variational AutoEncoder
 
(DL hacks輪読) Deep Kernel Learning
(DL hacks輪読) Deep Kernel Learning(DL hacks輪読) Deep Kernel Learning
(DL hacks輪読) Deep Kernel Learning
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展
 
ICML 2020 最適輸送まとめ
ICML 2020 最適輸送まとめICML 2020 最適輸送まとめ
ICML 2020 最適輸送まとめ
 
【DL輪読会】Domain Generalization by Learning and Removing Domainspecific Features
【DL輪読会】Domain Generalization by Learning and Removing Domainspecific Features【DL輪読会】Domain Generalization by Learning and Removing Domainspecific Features
【DL輪読会】Domain Generalization by Learning and Removing Domainspecific Features
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
Generating Diverse High-Fidelity Images with VQ-VAE-2
Generating Diverse High-Fidelity Images with VQ-VAE-2Generating Diverse High-Fidelity Images with VQ-VAE-2
Generating Diverse High-Fidelity Images with VQ-VAE-2
 
【DL輪読会】Implicit Behavioral Cloning
【DL輪読会】Implicit Behavioral Cloning【DL輪読会】Implicit Behavioral Cloning
【DL輪読会】Implicit Behavioral Cloning
 
【DL輪読会】Generative models for molecular discovery: Recent advances and challenges
【DL輪読会】Generative models for molecular discovery: Recent advances and challenges【DL輪読会】Generative models for molecular discovery: Recent advances and challenges
【DL輪読会】Generative models for molecular discovery: Recent advances and challenges
 

Ähnlich wie Denoising Diffusion Probabilistic Modelsの重要な式の解説

Factorizacion ejercicios
Factorizacion ejerciciosFactorizacion ejercicios
Factorizacion ejercicios
Edgar Sanchez
 
Introducción a los límites con geogebra
Introducción a los límites con geogebraIntroducción a los límites con geogebra
Introducción a los límites con geogebra
Mario Suárez
 
Multiplying Polynomials
Multiplying PolynomialsMultiplying Polynomials
Multiplying Polynomials
mlynczyk
 
Ejercicios americo mendoza
Ejercicios americo mendozaEjercicios americo mendoza
Ejercicios americo mendoza
wilder
 
Morelia garcia
Morelia garciaMorelia garcia
Morelia garcia
wilder
 
Ejercicios inecuaciones
Ejercicios inecuacionesEjercicios inecuaciones
Ejercicios inecuaciones
IES, ALBORÁN
 

Ähnlich wie Denoising Diffusion Probabilistic Modelsの重要な式の解説 (20)

ゲーム理論BASIC 演習27 補足-等利潤曲線-
ゲーム理論BASIC 演習27 補足-等利潤曲線-ゲーム理論BASIC 演習27 補足-等利潤曲線-
ゲーム理論BASIC 演習27 補足-等利潤曲線-
 
MA185 MATEMÁTICA V Examen Final
MA185 MATEMÁTICA V Examen FinalMA185 MATEMÁTICA V Examen Final
MA185 MATEMÁTICA V Examen Final
 
Factorizacion
FactorizacionFactorizacion
Factorizacion
 
Factorizacion ejercicios
Factorizacion ejerciciosFactorizacion ejercicios
Factorizacion ejercicios
 
Introducción a los límites con geogebra
Introducción a los límites con geogebraIntroducción a los límites con geogebra
Introducción a los límites con geogebra
 
Semana 15: Integrales Múltiples
Semana 15: Integrales MúltiplesSemana 15: Integrales Múltiples
Semana 15: Integrales Múltiples
 
Ejercicios Opcionales
Ejercicios Opcionales Ejercicios Opcionales
Ejercicios Opcionales
 
Polinomio de interpolación
Polinomio de interpolaciónPolinomio de interpolación
Polinomio de interpolación
 
La recta
La rectaLa recta
La recta
 
Limites RESUELTOS
Limites RESUELTOSLimites RESUELTOS
Limites RESUELTOS
 
Ims
ImsIms
Ims
 
Solucion ejercicios propuestos de interpolación
Solucion ejercicios propuestos de interpolaciónSolucion ejercicios propuestos de interpolación
Solucion ejercicios propuestos de interpolación
 
Multiplying Polynomials
Multiplying PolynomialsMultiplying Polynomials
Multiplying Polynomials
 
Ejercicios americo mendoza
Ejercicios americo mendozaEjercicios americo mendoza
Ejercicios americo mendoza
 
Ejercicio 7
Ejercicio 7Ejercicio 7
Ejercicio 7
 
Ch02 24
Ch02 24Ch02 24
Ch02 24
 
Ejercicios de cálculo diferencial
Ejercicios de cálculo diferencialEjercicios de cálculo diferencial
Ejercicios de cálculo diferencial
 
Práctica de ecuaciones de primer grado con una incógnita_prof.grettel...
Práctica  de  ecuaciones  de  primer  grado  con  una  incógnita_prof.grettel...Práctica  de  ecuaciones  de  primer  grado  con  una  incógnita_prof.grettel...
Práctica de ecuaciones de primer grado con una incógnita_prof.grettel...
 
Morelia garcia
Morelia garciaMorelia garcia
Morelia garcia
 
Ejercicios inecuaciones
Ejercicios inecuacionesEjercicios inecuaciones
Ejercicios inecuaciones
 

Mehr von Tomonari Masada

A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet Allocation
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet AllocationA Simple Stochastic Gradient Variational Bayes for Latent Dirichlet Allocation
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet Allocation
Tomonari Masada
 

Mehr von Tomonari Masada (20)

Learning Latent Space Energy Based Prior Modelの解説
Learning Latent Space Energy Based Prior Modelの解説Learning Latent Space Energy Based Prior Modelの解説
Learning Latent Space Energy Based Prior Modelの解説
 
Context-dependent Token-wise Variational Autoencoder for Topic Modeling
Context-dependent Token-wise Variational Autoencoder for Topic ModelingContext-dependent Token-wise Variational Autoencoder for Topic Modeling
Context-dependent Token-wise Variational Autoencoder for Topic Modeling
 
A note on the density of Gumbel-softmax
A note on the density of Gumbel-softmaxA note on the density of Gumbel-softmax
A note on the density of Gumbel-softmax
 
トピックモデルの基礎と応用
トピックモデルの基礎と応用トピックモデルの基礎と応用
トピックモデルの基礎と応用
 
Expectation propagation for latent Dirichlet allocation
Expectation propagation for latent Dirichlet allocationExpectation propagation for latent Dirichlet allocation
Expectation propagation for latent Dirichlet allocation
 
Mini-batch Variational Inference for Time-Aware Topic Modeling
Mini-batch Variational Inference for Time-Aware Topic ModelingMini-batch Variational Inference for Time-Aware Topic Modeling
Mini-batch Variational Inference for Time-Aware Topic Modeling
 
A note on variational inference for the univariate Gaussian
A note on variational inference for the univariate GaussianA note on variational inference for the univariate Gaussian
A note on variational inference for the univariate Gaussian
 
Document Modeling with Implicit Approximate Posterior Distributions
Document Modeling with Implicit Approximate Posterior DistributionsDocument Modeling with Implicit Approximate Posterior Distributions
Document Modeling with Implicit Approximate Posterior Distributions
 
LDA-Based Scoring of Sequences Generated by RNN for Automatic Tanka Composition
LDA-Based Scoring of Sequences Generated by RNN for Automatic Tanka CompositionLDA-Based Scoring of Sequences Generated by RNN for Automatic Tanka Composition
LDA-Based Scoring of Sequences Generated by RNN for Automatic Tanka Composition
 
A Note on ZINB-VAE
A Note on ZINB-VAEA Note on ZINB-VAE
A Note on ZINB-VAE
 
A Note on Latent LSTM Allocation
A Note on Latent LSTM AllocationA Note on Latent LSTM Allocation
A Note on Latent LSTM Allocation
 
A Note on TopicRNN
A Note on TopicRNNA Note on TopicRNN
A Note on TopicRNN
 
Topic modeling with Poisson factorization (2)
Topic modeling with Poisson factorization (2)Topic modeling with Poisson factorization (2)
Topic modeling with Poisson factorization (2)
 
Poisson factorization
Poisson factorizationPoisson factorization
Poisson factorization
 
A Simple Stochastic Gradient Variational Bayes for the Correlated Topic Model
A Simple Stochastic Gradient Variational Bayes for the Correlated Topic ModelA Simple Stochastic Gradient Variational Bayes for the Correlated Topic Model
A Simple Stochastic Gradient Variational Bayes for the Correlated Topic Model
 
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet Allocation
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet AllocationA Simple Stochastic Gradient Variational Bayes for Latent Dirichlet Allocation
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet Allocation
 
Word count in Husserliana Volumes 1 to 28
Word count in Husserliana Volumes 1 to 28Word count in Husserliana Volumes 1 to 28
Word count in Husserliana Volumes 1 to 28
 
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet Allocation
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet AllocationA Simple Stochastic Gradient Variational Bayes for Latent Dirichlet Allocation
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet Allocation
 
FDSE2015
FDSE2015FDSE2015
FDSE2015
 
A derivation of the sampling formulas for An Entity-Topic Model for Entity Li...
A derivation of the sampling formulas for An Entity-Topic Model for Entity Li...A derivation of the sampling formulas for An Entity-Topic Model for Entity Li...
A derivation of the sampling formulas for An Entity-Topic Model for Entity Li...
 

Denoising Diffusion Probabilistic Modelsの重要な式の解説

  • 1. Denoising Diffusion Probabilistic Models 重要 式 解説 正田 備也 masada@rikkyo.ac.jp September 13, 2020 1 / 14
  • 3. q(x2|x0) = ∫ q(x2|x1)q(x1|x0)dx1 = d∏ j=1 ∫ q(x2,j|x1,j)q(x1,j|x0,j)dx1,j = d∏ j=1 ∫ 1 √ (2π)2β2β1 exp ( − (x2,j − √ 1 − β2x1,j)2 2β2 − (x1,j − √ 1 − β1x0,j)2 2β1 ) dx1,j (1) exp(·) 中身 注目 。 (x2,j − √ 1 − β2x1,j)2 2β2 + (x1,j − √ 1 − β1x0,j)2 2β1 = (β1 + β2 − β1β2)x2 1,j − 2(β1 √ 1 − β2x2,j + β2 √ 1 − β1x0,j)x1,j + β1x2 2,j + β2(1 − β1)x2 0,j 2β1β2 = β1 + β2 − β1β2 2β1β2 {( x1,j − β1 √ 1 − β2x2,j + β2 √ 1 − β1x0,j β1 + β2 − β1β2 )2 − β2 1(1 − β2)x2 2,j + β2 2(1 − β1)x2 0,j + 2β1β2 √ (1 − β2)(1 − β1)x2,jx0,j (β1 + β2 − β1β2)2 + β1x2 2,j + β2x2 0,j β1 + β2 − β1β2 } 3 / 14
  • 4. = β1 + β2 − β1β2 2β1β2 {( x1,j − β1 √ 1 − β2x2,j + β2 √ 1 − β1x0,j β1 + β2 − β1β2 )2 + β1β2(x2 2,j − 2 √ (1 − β2)(1 − β1)x2,jx0,j + x2 0,j) (β1 + β2 − β1β2)2 } = β1 + β2 − β1β2 2β1β2 ( x1,j − β1 √ 1 − β2x2,j + β2 √ 1 − β1x0,j β1 + β2 − β1β2 )2 + (x2 2,j − 2 √ (1 − β2)(1 − β1)x2,jx0,j + x2 0,j) 2(β1 + β2 − β1β2) (2) ∫ exp ( − β1 + β2 − β1β2 2β1β2 ( x1,j − β1 √ 1 − β2x2,j + β2 √ 1 − β1x0,j β1 + β2 − β1β2 )2) dx1,j = √ 2πβ1β2 β1 + β2 − β1β2 (3) 4 / 14
  • 5. ∫ q(x2,j|x1,j)q(x1,j|x0,j)dx1,j = 1 √ (2π)2β2β1 √ 2πβ1β2 β1 + β2 − β1β2 exp ( − (x2 2,j − 2 √ (1 − β2)(1 − β1)x2,jx0,j + x2 0,j) 2(β1 + β2 − β1β2) ) = 1 √ 2π(β1 + β2 − β1β2) exp ( − (x2 2,j − 2 √ (1 − β2)(1 − β1)x2,jx0,j + x2 0,j) 2(β1 + β2 − β1β2) ) (4) 以上 、 q(x2,j|x0,j) ∼ N( √ (1 − β2)(1 − β1)x0,j, β1 + β2 − β1β2) (5) 分 。 、αt = 1 − βt ¯αt = ∏t s=1 αs 、 q(x2,j|x0,j) ∼ N( √ ¯α2x0,j, 1 − ¯α2) (6) 。 j = 1, . . . , d 、 q(x2|x0) ∼ N( √ ¯α2x0, (1 − ¯α2)I) (7) 5 / 14
  • 6. q(x3|x0) = ∫ q(x3|x2)q(x2|x0)dx2 = d∏ j=1 ∫ q(x3,j|x2,j)q(x2,j|x0,j)dx2,j = d∏ j=1 ∫ 1 √ (2π)2β3(1 − ¯α2) exp ( − (x3,j − √ 1 − β3x2,j)2 2β3 − (x2,j − √ ¯α2x0,j)2 2(1 − ¯α2) ) dx2,j (8) q(x2|x0) 求 式 、β2 β3 、β1 1 − ¯α2 置 換 。 、 q(x3,j|x0,j) ∼ N( √ (1 − β3)¯α2x0,j, 1 − ¯α2 + β3 ¯α2) (9) 分 。(1 − β3)¯α2 = α3 ¯α2 = ¯α3 1 − ¯α2 + β3 ¯α2 = 1 − α3 ¯α2 = 1 − ¯α3 、 q(x3,j|x0,j) ∼ N( √ ¯α3x0,j, 1 − ¯α3) (10) 以下同様 考 q(xt|x0) ∼ N( √ ¯αtx0, (1 − ¯αt)I) (11) ( 、論文 式 (4) 通 。) 6 / 14
  • 8. q(xt−1|xt, x0) ∝ q(xt|xt−1)q(xt−1|x0) = d∏ j=1 q(xt,j|xt−1,j)q(xt−1,j|x0,j) = d∏ j=1 1 √ (2π)2βt(1 − ¯αt−1) exp ( − (xt,j − √ 1 − βtxt−1,j)2 2βt − (xt−1,j − √ ¯αt−1x0,j)2 2(1 − ¯αt−1) ) (12) (xt,j − √ 1 − βtxt−1,j)2 2βt + (xt−1,j − √ ¯αt−1x0,j)2 2(1 − ¯αt−1) = 1 − ¯αt−1 + βt − (1 − ¯αt−1)βt 2(1 − ¯αt−1)βt ( xt−1,j − (1 − ¯αt−1) √ 1 − βtxt,j + βt √ ¯αt−1x0,j 1 − ¯αt−1 + βt − (1 − ¯αt−1)βt )2 + const. = 1 − ¯αt 2(1 − ¯αt−1)βt ( xt−1,j − (1 − ¯αt−1) √ αtxt,j + βt √ ¯αt−1x0,j 1 − ¯αt )2 + const. (13) 8 / 14
  • 9. q(xt−1,j|xt,j, x0,j) ∼ N ((1 − ¯αt−1) √ αtxt,j + βt √ ¯αt−1x0,j 1 − ¯αt , (1 − ¯αt−1)βt 1 − ¯αt ) (14) j = 1, . . . , d 、 q(xt−1|xt, x0) ∼ N ((1 − ¯αt−1) √ αtxt + βt √ ¯αt−1x0 1 − ¯αt , (1 − ¯αt−1)βt 1 − ¯αt I ) (15) ( 、論文 式 (6) 式 (7) 通 。) 9 / 14
  • 11. ln p(x0) = ln ∫ p(x0:T )dx1:T = ln ∫ p(xT ) T∏ t=1 p(xt−1|xt)dx1:T = ln ∫ q(x1:T |x0) p(xT ) ∏T t=1 p(xt−1|xt) q(x1:T |x0) dx1:T ≥ ∫ q(x1:T |x0) ln p(xT ) ∏T t=1 p(xt−1|xt) q(x1:T |x0) dx1:T = ∫ q(x1:T |x0) ln p(xT ) ∏T t=1 p(xt−1|xt) ∏T t=1 q(xt|xt−1) dx1:T = Eq [ ln p(xT ) + T∑ t=1 ln p(xt−1|xt) q(xt|xt−1) ] = Eq [ ln p(xT ) + T∑ t=2 ln p(xt−1|xt) q(xt|xt−1) + ln p(x0|x1) q(x1|x0) ] (16) 11 / 14
  • 12. q(xt−1|xt, x0) = q(xt, xt−1|x0) q(xt|x0) = q(xt|xt−1, x0)q(xt−1|x0) q(xt|x0) = q(xt|xt−1)q(xt−1|x0) q(xt|x0) (17) 、最後 等号 性 仮定 、成 立 。 ∴ ln p(x0) ≥ Eq [ ln p(xT ) + T∑ t=2 ln p(xt−1|xt) q(xt−1|xt, x0) · q(xt−1|x0) q(xt|x0) + ln p(x0|x1) q(x1|x0) ] = Eq [ ln p(xT ) + T∑ t=2 ln p(xt−1|xt) q(xt−1|xt, x0) + T∑ t=2 ln q(xt−1|x0) − T∑ t=2 ln q(xt|x0) + ln p(x0|x1) q(x1|x0) ] = Eq [ ln p(xT ) + T∑ t=2 ln p(xt−1|xt) q(xt−1|xt, x0) + ln q(x1|x0) − ln q(xT |x0) + ln p(x0|x1) q(x1|x0) ] = Eq [ ln p(xT ) q(xT |x0) + T∑ t=2 ln p(xt−1|xt) q(xt−1|xt, x0) + ln p(x0|x1) ] (18) 12 / 14
  • 13. p(xt−1|xt) = ∏d j=1 1√ 2πσt exp ( − (xt−1,j −µj (xt,t))2 2σ2 t ) 。 ln p(xt−1|xt) q(xt−1|xt, x0) = − d∑ j=1 (xt−1,j − µj(xt, t))2 2σ2 t + d∑ j=1 (xt−1,j − (1−¯αt−1) √ αtxt,j +βt √ ¯αt−1x0,j 1−¯αt )2 2(1−¯αt−1)βt 1−¯αt + const. (19) 論文 σ2 t = (1−¯αt−1)βt 1−¯αt 仮定 、 ln p(xt−1|xt) q(xt−1|xt, x0) = 1 2σ2 t d∑ j=1 [ 2xt−1,j ( µj(xt, t) − (1 − ¯αt−1) √ αtxt,j + βt √ ¯αt−1x0,j 1 − ¯αt ) − µj(xt, t)2 + ( (1 − ¯αt−1) √ αtxt,j + βt √ ¯αt−1x0,j 1 − ¯αt )2] + const. (20) 13 / 14
  • 14. ∫ q(xt−1|xt, x0) ln p(xt−1|xt) q(xt−1|xt, x0) dxt−1 = 1 2σ2 t d∑ j=1 [ 2 (1 − ¯αt−1) √ αtxt,j + βt √ ¯αt−1x0,j 1 − ¯αt ( µj(xt, t) − (1 − ¯αt−1) √ αtxt,j + βt √ ¯αt−1x0,j 1 − ¯αt ) − µj(xt, t)2 + ( (1 − ¯αt−1) √ αtxt,j + βt √ ¯αt−1x0,j 1 − ¯αt )2] + const. = − 1 2σ2 t d∑ j=1 ( µj(xt, t)2 − (1 − ¯αt−1) √ αtxt,j + βt √ ¯αt−1x0,j 1 − ¯αt )2 + const. (21) ( 、論文 式 (8) 符号 逆 。論文 negative log evidence upper bound 求 、 解説 log evidence lower bound 求 、符号 逆 。) 14 / 14