2. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3. Adversarial nets
3. Adversarial nets
• Adversarial modeling framework 는 generator 와 discriminator 의
distribution 을 학습하게 된다.
• Generator’s distribution : input noise variables pz(z) 를 정의하고
거기에서 parameter θg 를 학습하여 G(z; θg) 를 업데이트 하는 방법으로
학습된다.
• Discriminator’s distribution : discriminator D(x; θd) 는 single scalar 의
값을 갖는 함수로 x 가 generator 의 distribution pz 에서 나오지 않았을 확률
(즉, input data 에서 나왔을 확률)을 의미한다.
• 이것을 한 번에 표시하면 아래의 min-max problem 으로 표시된 loss
function 을 통해 학습이 된다.
min
G
max
D
V(D, G) = Ex∼pdata
[log D(x)] + Ez∼pz(z)[log(1 − D(G(z)))].
JIN HO LEE Generative Adversarial Nets 2019-3-28 2 / 8
4. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4. Theoretical Results 4.1 Global Optimality of pg = pdata
4.1 Global Optimality of pg = pdata
Proposition
For G fixed, the optimal discriminator D is
D∗
G(x) =
pdata(x)
pdata(x) + pg(x)
Proof.
G 가 고정되면 식 (1) 에 의해 우리는 max
D
V(G, D) 문제를 풀게 된다. Law
of the unconscious statistician 에 의해 다음을 얻을 수 있다. 여기서
V(G, D) =
∫
x
pdata(x) log(D(x))dx +
∫
z
pz(z) log(1 − D(g(z)))dz
=
∫
x
(pdata(x) log(D(x)) + pg(x) log(1 − D(x))) dx
JIN HO LEE Generative Adversarial Nets 2019-3-28 4 / 8