SlideShare ist ein Scribd-Unternehmen logo
1 von 18
Downloaden Sie, um offline zu lesen
ICML2018 勉強会
M2 中塚俊介
Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved.
紹介する論文
◼ Tempered Adversarial Networks
◼ Optimizing the Latent Space of Generative Networks
2
Tempered Adversarial Networks
Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved.
TL;DR
◼ GANの学習は安定しない
― GeneratorとDiscriminatorのバランスを調整するのが難しい
― Mode Collapse
◼ 普通のGANはfixされたデータ分布に生成分布を近づける
◼ この手法ではデータ分布を生成分布に近づけるようにして安定化を図った
― データ分布を生成分布に近づけるために Lens Networkを用いる
― この枠組みは,DCGAN・LSGAN・WGANなどObjectiveにかかわらず有効
4
Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved.
Motivation
◼ GANの学習は安定しない
― GeneratorとDiscriminatorのバランスを調整するのが難しい
― Mode Collapse
◼ GANの学習中において,
生成分布は常に変化するのにデータ分布は一切変化しない
― 生成分布とデータ分布を完全に見極めるようなDiscriminatorができると学習が破綻
― じゃあ,データ分布を生成分布に近づけてあげよう
pdata pg
完全に分離できるDiscriminator
pdata pg
完全分離できないように
5
Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved.
Architecture
◼ 通常のGANの構造にLensを加えるだけ
pz pg
pdata
Generator
Discriminator
Lens
6
Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved.
Objective
◼ Lensの目的関数は2つの項からなる
― LL
A : 敵対的誤差
― LL
R : 再構成誤差
◼ GAN自体のLossは
― Generatorは変更なし
― Discriminatorは D(L(x)) に
― Metricsに関わらず適用可能
[ ( ( ( )))]A
L x XL E log D L x= −
2
2( )R
L x XL E x L x= −
A R
L L LL L L= +
Lens
[ ( ( ( )))]G z ZL E log D G z= −
[ ( ( ( )))] [ (1 ( ( )))]D x X z ZL E log D L x E log D G z  −= − −
Discriminator
Generator
7
Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved.
Lensの強さは動的
◼ Lensの強さを決定するパラメータλ は,
学習が進むにつれて減少させるように設計
◼ λ = 0 になると,Lensは取り払ってしまう
◼ 論文では,K=105で固定
)
0
1
2
(
otherwi
t
sin t
e
K
s
K



 
− 

=  




8
Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved.
Lensの役割
◼ Lensは単射(1対1対応の写像)である必要はない
◼ だからLensによって同じデータポイントへ写像されることがある
― これにより,分布の複雑さが緩和される
― そのため,学習が安定
◼ 以前からガウスノイズをx に付加するテクニックはあった
― しかし,減衰率は手動設定だった
― Lensはその調節も動的にしてくれている(多分, λ の減衰とは別に)
9
Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved.
結果
10
Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved.
結果
11
Optimizing the Latent Space of Generative Networks
Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved.
TL;DR
◼ Discriminatorの無いGAN?
◼ GANが安定しないのは,GeneratorとDiscriminatorのMinMaxであるから
― 何とかして,Minimize問題にしたい
◼ NNの重みだけでなく,z も勾配降下法で最適化する
13
Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved.
Objective
◼ クラス分類のように,1対1対応の x とz のペアを作る
◼ ノイズz をGeneratorによって写像する
◼ MinMin問題となっていて,学習が安定する
◼ Lossの推移で学習がうまくいってるか判断できる
14
1
1
min min ( ( ), )
i
N
i i
z
i
l g z x
N


=

Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved.
Objective of θ
◼ zから,g(z)を得る
― GANでは,Adversarial Lossをとるが,今回は教師データx がある
― x との距離を測ればよい
◼ MSEではなく,Laplacian Pyramid Lossを用いる
― 解像度でピラミッドを作り,上下レイヤで差分したもの
― 位置感度は鈍感,各周波数ごとに差をとれる
― 小規模DiscriminatorにおけるEMDに一致するらしい
15
2
1
( , ) 2 ( ) ( )j
j j
j
Lap x x L x L x−
 = −
Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved.
Objective of z
◼ 事前分布は正規分布
◼ 学習中にzは,変化していく
― そのため,ノルムもその都度変化する
― これでは,Lipchitz連続性が保てない
◼ 半径1の閉単位超球に収まるように正規化
― z の次元数d として, d で割るだけ
◼ ObejctiveはReconstruction Loss
16
2
2
( )zL g z x= −
Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved.
結果
17
Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved.
結果
18

Weitere ähnliche Inhalte

Was ist angesagt?

DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜Jun Okumura
 
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII
 
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)Takuma Yagi
 
Introduction to A3C model
Introduction to A3C modelIntroduction to A3C model
Introduction to A3C modelWEBFARMER. ltd.
 
MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習Preferred Networks
 
全体セミナー20170629
全体セミナー20170629全体セミナー20170629
全体セミナー20170629Jiro Nishitoba
 
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Satoshi Kato
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Seiya Tokui
 
畳み込みLstm
畳み込みLstm畳み込みLstm
畳み込みLstmtak9029
 
敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)cvpaper. challenge
 
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Yamato OKAMOTO
 
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesPractical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesKoji Matsuda
 
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Seiya Tokui
 
Paper intoduction "Playing Atari with deep reinforcement learning"
Paper intoduction   "Playing Atari with deep reinforcement learning"Paper intoduction   "Playing Atari with deep reinforcement learning"
Paper intoduction "Playing Atari with deep reinforcement learning"Hiroshi Tsukahara
 
Rnn+lstmを理解する
Rnn+lstmを理解するRnn+lstmを理解する
Rnn+lstmを理解するArata Honda
 

Was ist angesagt? (20)

DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜
 
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
 
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
 
Introduction to A3C model
Introduction to A3C modelIntroduction to A3C model
Introduction to A3C model
 
MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習
 
More modern gpu
More modern gpuMore modern gpu
More modern gpu
 
全体セミナー20170629
全体セミナー20170629全体セミナー20170629
全体セミナー20170629
 
Information extraction 1
Information extraction 1Information extraction 1
Information extraction 1
 
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
 
畳み込みLstm
畳み込みLstm畳み込みLstm
畳み込みLstm
 
敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)
 
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
 
Hessian free
Hessian freeHessian free
Hessian free
 
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesPractical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
 
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
 
Paper intoduction "Playing Atari with deep reinforcement learning"
Paper intoduction   "Playing Atari with deep reinforcement learning"Paper intoduction   "Playing Atari with deep reinforcement learning"
Paper intoduction "Playing Atari with deep reinforcement learning"
 
Rnn+lstmを理解する
Rnn+lstmを理解するRnn+lstmを理解する
Rnn+lstmを理解する
 

Mehr von Shunsuke NAKATSUKA

CVPR2020_ECCV2020_Anomaly_Detection_まとめ
CVPR2020_ECCV2020_Anomaly_Detection_まとめCVPR2020_ECCV2020_Anomaly_Detection_まとめ
CVPR2020_ECCV2020_Anomaly_Detection_まとめShunsuke NAKATSUKA
 
【CVPR 2019】Latent Space Autoregression for Novelty Detection
【CVPR 2019】Latent Space Autoregression for Novelty Detection 【CVPR 2019】Latent Space Autoregression for Novelty Detection
【CVPR 2019】Latent Space Autoregression for Novelty Detection Shunsuke NAKATSUKA
 
最新事例紹介資料 異常検知(2018.11.19)
最新事例紹介資料 異常検知(2018.11.19)最新事例紹介資料 異常検知(2018.11.19)
最新事例紹介資料 異常検知(2018.11.19)Shunsuke NAKATSUKA
 
最新事例紹介資料 異常検知 + alpha(2018.10.15)
最新事例紹介資料 異常検知 + alpha(2018.10.15)最新事例紹介資料 異常検知 + alpha(2018.10.15)
最新事例紹介資料 異常検知 + alpha(2018.10.15)Shunsuke NAKATSUKA
 
最新事例紹介資料 異常検知(2018.09.20)
最新事例紹介資料 異常検知(2018.09.20)最新事例紹介資料 異常検知(2018.09.20)
最新事例紹介資料 異常検知(2018.09.20)Shunsuke NAKATSUKA
 
最新事例紹介資料 異常検知(2018.08.24)
最新事例紹介資料 異常検知(2018.08.24)最新事例紹介資料 異常検知(2018.08.24)
最新事例紹介資料 異常検知(2018.08.24)Shunsuke NAKATSUKA
 
最新研究紹介資料(異常検知)
最新研究紹介資料(異常検知)最新研究紹介資料(異常検知)
最新研究紹介資料(異常検知)Shunsuke NAKATSUKA
 

Mehr von Shunsuke NAKATSUKA (8)

CVPR2020_ECCV2020_Anomaly_Detection_まとめ
CVPR2020_ECCV2020_Anomaly_Detection_まとめCVPR2020_ECCV2020_Anomaly_Detection_まとめ
CVPR2020_ECCV2020_Anomaly_Detection_まとめ
 
【CVPR 2019】Latent Space Autoregression for Novelty Detection
【CVPR 2019】Latent Space Autoregression for Novelty Detection 【CVPR 2019】Latent Space Autoregression for Novelty Detection
【CVPR 2019】Latent Space Autoregression for Novelty Detection
 
最新事例紹介資料 異常検知(2018.11.19)
最新事例紹介資料 異常検知(2018.11.19)最新事例紹介資料 異常検知(2018.11.19)
最新事例紹介資料 異常検知(2018.11.19)
 
最新事例紹介資料 異常検知 + alpha(2018.10.15)
最新事例紹介資料 異常検知 + alpha(2018.10.15)最新事例紹介資料 異常検知 + alpha(2018.10.15)
最新事例紹介資料 異常検知 + alpha(2018.10.15)
 
最新事例紹介資料 異常検知(2018.09.20)
最新事例紹介資料 異常検知(2018.09.20)最新事例紹介資料 異常検知(2018.09.20)
最新事例紹介資料 異常検知(2018.09.20)
 
最新事例紹介資料 異常検知(2018.08.24)
最新事例紹介資料 異常検知(2018.08.24)最新事例紹介資料 異常検知(2018.08.24)
最新事例紹介資料 異常検知(2018.08.24)
 
最新研究紹介資料(異常検知)
最新研究紹介資料(異常検知)最新研究紹介資料(異常検知)
最新研究紹介資料(異常検知)
 
Tutorial of GANs in Gifu Univ
Tutorial of GANs in Gifu UnivTutorial of GANs in Gifu Univ
Tutorial of GANs in Gifu Univ
 

ICML2018 勉強会

  • 2. Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved. 紹介する論文 ◼ Tempered Adversarial Networks ◼ Optimizing the Latent Space of Generative Networks 2
  • 4. Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved. TL;DR ◼ GANの学習は安定しない ― GeneratorとDiscriminatorのバランスを調整するのが難しい ― Mode Collapse ◼ 普通のGANはfixされたデータ分布に生成分布を近づける ◼ この手法ではデータ分布を生成分布に近づけるようにして安定化を図った ― データ分布を生成分布に近づけるために Lens Networkを用いる ― この枠組みは,DCGAN・LSGAN・WGANなどObjectiveにかかわらず有効 4
  • 5. Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved. Motivation ◼ GANの学習は安定しない ― GeneratorとDiscriminatorのバランスを調整するのが難しい ― Mode Collapse ◼ GANの学習中において, 生成分布は常に変化するのにデータ分布は一切変化しない ― 生成分布とデータ分布を完全に見極めるようなDiscriminatorができると学習が破綻 ― じゃあ,データ分布を生成分布に近づけてあげよう pdata pg 完全に分離できるDiscriminator pdata pg 完全分離できないように 5
  • 6. Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved. Architecture ◼ 通常のGANの構造にLensを加えるだけ pz pg pdata Generator Discriminator Lens 6
  • 7. Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved. Objective ◼ Lensの目的関数は2つの項からなる ― LL A : 敵対的誤差 ― LL R : 再構成誤差 ◼ GAN自体のLossは ― Generatorは変更なし ― Discriminatorは D(L(x)) に ― Metricsに関わらず適用可能 [ ( ( ( )))]A L x XL E log D L x= − 2 2( )R L x XL E x L x= − A R L L LL L L= + Lens [ ( ( ( )))]G z ZL E log D G z= − [ ( ( ( )))] [ (1 ( ( )))]D x X z ZL E log D L x E log D G z  −= − − Discriminator Generator 7
  • 8. Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved. Lensの強さは動的 ◼ Lensの強さを決定するパラメータλ は, 学習が進むにつれて減少させるように設計 ◼ λ = 0 になると,Lensは取り払ってしまう ◼ 論文では,K=105で固定 ) 0 1 2 ( otherwi t sin t e K s K      −   =       8
  • 9. Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved. Lensの役割 ◼ Lensは単射(1対1対応の写像)である必要はない ◼ だからLensによって同じデータポイントへ写像されることがある ― これにより,分布の複雑さが緩和される ― そのため,学習が安定 ◼ 以前からガウスノイズをx に付加するテクニックはあった ― しかし,減衰率は手動設定だった ― Lensはその調節も動的にしてくれている(多分, λ の減衰とは別に) 9
  • 10. Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved. 結果 10
  • 11. Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved. 結果 11
  • 12. Optimizing the Latent Space of Generative Networks
  • 13. Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved. TL;DR ◼ Discriminatorの無いGAN? ◼ GANが安定しないのは,GeneratorとDiscriminatorのMinMaxであるから ― 何とかして,Minimize問題にしたい ◼ NNの重みだけでなく,z も勾配降下法で最適化する 13
  • 14. Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved. Objective ◼ クラス分類のように,1対1対応の x とz のペアを作る ◼ ノイズz をGeneratorによって写像する ◼ MinMin問題となっていて,学習が安定する ◼ Lossの推移で学習がうまくいってるか判断できる 14 1 1 min min ( ( ), ) i N i i z i l g z x N   = 
  • 15. Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved. Objective of θ ◼ zから,g(z)を得る ― GANでは,Adversarial Lossをとるが,今回は教師データx がある ― x との距離を測ればよい ◼ MSEではなく,Laplacian Pyramid Lossを用いる ― 解像度でピラミッドを作り,上下レイヤで差分したもの ― 位置感度は鈍感,各周波数ごとに差をとれる ― 小規模DiscriminatorにおけるEMDに一致するらしい 15 2 1 ( , ) 2 ( ) ( )j j j j Lap x x L x L x−  = −
  • 16. Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved. Objective of z ◼ 事前分布は正規分布 ◼ 学習中にzは,変化していく ― そのため,ノルムもその都度変化する ― これでは,Lipchitz連続性が保てない ◼ 半径1の閉単位超球に収まるように正規化 ― z の次元数d として, d で割るだけ ◼ ObejctiveはReconstruction Loss 16 2 2 ( )zL g z x= −
  • 17. Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved. 結果 17
  • 18. Copyright © 2018 Gifu-U Kato-Lab All Rights Reserved. 結果 18