SlideShare a Scribd company logo
Suche senden
Hochladen
Einloggen
Registrieren
【論文読み会】Self-Attention Generative Adversarial Networks
Melden
ARISE analytics
Folgen
ARISE analytics
30. May 2019
•
0 gefällt mir
•
5,221 views
1
von
23
【論文読み会】Self-Attention Generative Adversarial Networks
30. May 2019
•
0 gefällt mir
•
5,221 views
Jetzt herunterladen
Downloaden Sie, um offline zu lesen
Melden
Daten & Analysen
論文「Self-Attention Generative Adversarial Networks」について輪読した際の資料です。
ARISE analytics
Folgen
ARISE analytics
Recomendados
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
6.8K views
•
54 Folien
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
2.9K views
•
21 Folien
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
3.7K views
•
48 Folien
近年のHierarchical Vision Transformer
Yusuke Uchida
13.4K views
•
46 Folien
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
3.8K views
•
52 Folien
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
15.3K views
•
38 Folien
Más contenido relacionado
Was ist angesagt?
StyleGAN解説 CVPR2019読み会@DeNA
Kento Doi
8.4K views
•
34 Folien
Iclr2016 vaeまとめ
Deep Learning JP
5.9K views
•
36 Folien
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
Deep Learning JP
2.1K views
•
20 Folien
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
64.3K views
•
133 Folien
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
ARISE analytics
2.4K views
•
22 Folien
Skip Connection まとめ(Neural Network)
Yamato OKAMOTO
16.9K views
•
6 Folien
Was ist angesagt?
(20)
StyleGAN解説 CVPR2019読み会@DeNA
Kento Doi
•
8.4K views
Iclr2016 vaeまとめ
Deep Learning JP
•
5.9K views
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
Deep Learning JP
•
2.1K views
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
•
64.3K views
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
ARISE analytics
•
2.4K views
Skip Connection まとめ(Neural Network)
Yamato OKAMOTO
•
16.9K views
[DL Hacks]Self-Attention Generative Adversarial Networks
Deep Learning JP
•
2.6K views
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
Deep Learning JP
•
3.6K views
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
•
14.3K views
実装レベルで学ぶVQVAE
ぱんいち すみもと
•
12.4K views
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
•
19.2K views
猫でも分かるVariational AutoEncoder
Sho Tatsuno
•
131K views
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII
•
3.6K views
GAN(と強化学習との関係)
Masahiro Suzuki
•
82.1K views
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
•
1.8K views
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
•
7.4K views
Bayesian Neural Networks : Survey
tmtm otm
•
4.9K views
深層生成モデルを用いたマルチモーダル学習
Masahiro Suzuki
•
9.4K views
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
•
3.6K views
ドメイン適応の原理と応用
Yoshitaka Ushiku
•
5.2K views
Similar a 【論文読み会】Self-Attention Generative Adversarial Networks
Icml2018読み会_overview&GANs
Kentaro Tachibana
2.8K views
•
37 Folien
[DL輪読会]Deep Face Recognition: A Survey
Deep Learning JP
22.9K views
•
35 Folien
MIRU_Preview_JSAI2019
Takayoshi Yamashita
2.5K views
•
56 Folien
クラウドがアプリケーションの価値を上げる
Nissho-Blocks
991 views
•
40 Folien
景観セミナー資料 (株)フジヤマ
Naoya Sugimoto
244 views
•
43 Folien
何がって"DevQA" アジャイル開発とQAの合体が改善を生む
atsushi nagata
170 views
•
84 Folien
Similar a 【論文読み会】Self-Attention Generative Adversarial Networks
(20)
Icml2018読み会_overview&GANs
Kentaro Tachibana
•
2.8K views
[DL輪読会]Deep Face Recognition: A Survey
Deep Learning JP
•
22.9K views
MIRU_Preview_JSAI2019
Takayoshi Yamashita
•
2.5K views
クラウドがアプリケーションの価値を上げる
Nissho-Blocks
•
991 views
景観セミナー資料 (株)フジヤマ
Naoya Sugimoto
•
244 views
何がって"DevQA" アジャイル開発とQAの合体が改善を生む
atsushi nagata
•
170 views
20190804_icml_kyoto
Takayoshi Yamashita
•
5.7K views
Counterfaual Machine Learning(CFML)のサーベイ
ARISE analytics
•
27.5K views
サイトサーチアナリティクスとは
Makoto Shimizu
•
5.3K views
Generative Adversarial Networks (GAN) @ NIPS2017
Koichi Hamada
•
15.8K views
JOSS2021_E7_FAIRなデータキュレーションの実践_FAIR_Evaluation.pptx
TomoeNOBUSADA
•
31 views
SQuaRE に基づくソフトウェア品質評価枠組みと品質実態調査
Hironori Washizaki
•
2.1K views
SQuaREに基づくソフトウェア品質評価枠組みと品質実態調査
Hironori Washizaki
•
3.6K views
WebEffective overview 2012 japanese
Yoichiro Takehora
•
1K views
WebアプリケーションのUI機能テストのためのHTML構造パターンの提案
Kamiya Toshihiro
•
732 views
Annotating object instances with a polygon rnn
Takanori Ogata
•
29.1K views
超高速な機械学習を Oracle Database で実現!
オラクルエンジニア通信
•
5K views
成功と失敗に学ぶアジャイル受託開発の極意
Yukio Okajima
•
3.2K views
【Microsoft Conference Japan Tour 2010】 T4-2 クラウド時代を迎えたソフトウェア開発における現場力の向上
智治 長沢
•
1K views
【XDev】A-2 アジリティ向上のためのツール活用
智治 長沢
•
797 views
Más de ARISE analytics
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho...
ARISE analytics
154 views
•
32 Folien
Hierarchical Metadata-Aware Document Categorization under Weak Supervision (...
ARISE analytics
113 views
•
24 Folien
教師なしGNNによるIoTデバイスの異常通信検知の検討
ARISE analytics
829 views
•
21 Folien
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...
ARISE analytics
535 views
•
18 Folien
【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D...
ARISE analytics
439 views
•
17 Folien
【論文読み会】Autoregressive Diffusion Models.pptx
ARISE analytics
5.1K views
•
27 Folien
Más de ARISE analytics
(14)
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho...
ARISE analytics
•
154 views
Hierarchical Metadata-Aware Document Categorization under Weak Supervision (...
ARISE analytics
•
113 views
教師なしGNNによるIoTデバイスの異常通信検知の検討
ARISE analytics
•
829 views
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...
ARISE analytics
•
535 views
【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D...
ARISE analytics
•
439 views
【論文読み会】Autoregressive Diffusion Models.pptx
ARISE analytics
•
5.1K views
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx
ARISE analytics
•
489 views
【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx
ARISE analytics
•
461 views
【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice
ARISE analytics
•
673 views
【論文読み会】On the Expressivity of Markov Reward
ARISE analytics
•
559 views
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...
ARISE analytics
•
656 views
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
ARISE analytics
•
651 views
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
ARISE analytics
•
7.7K views
【論文読み会】Universal Language Model Fine-tuning for Text Classification
ARISE analytics
•
1.9K views
【論文読み会】Self-Attention Generative Adversarial Networks
1.
1©2019 ARISE analytics Self-Attention
Generative Adversarial Networks 2018/09/07 Yuya Kanemoto
2.
2©2019 ARISE analytics 概要 一言で言うと すごい点 Self-attentionを用いて画像の大域的な依存関係を抽出 画像生成の性能指標が大幅に向上
Inception Score (IS): 36.8 → 52.52 Fréchet Inception distance (FID): 27.62 → 18.65 モチベーション GANの精度向上
3.
3©2019 ARISE analytics Table
of contents • Background • GAN • Framework • 1クラス画像生成の進展 • 多クラス画像生成の進展 • 評価基準 • Spectral normalization • Self-attention • 本論文
4.
4©2019 ARISE analytics GAN
framework Goodfellow et al. 2014. Generative Adversarial Nets
5.
5©2019 ARISE analytics 3.5
Years of Progress on Faces Goodfellow CVPR Tutorial 2018
6.
6©2019 ARISE analytics SOTA
on Faces: PG-GAN Kerras et al. ICLR 2018. PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION
7.
7©2019 ARISE analytics <2
Years of Progress on ImageNet Goodfellow CVPR Tutorial 2018
8.
8©2019 ARISE analytics 多クラス画像生成の課題 •
ImageNetのような多クラスの画像から学習する際、textureで判断される画像(e.g. 犬の体毛)は綺麗に 生成されやすいのに対して、geometryで判断される画像(e.g. 犬の足)を上手く生成するのは難しい • CNNは局所的な受容野を持つため、大局的な依存関係は層を重ねることによってのみ考慮される 大局的な情報を得るためにCNNを多層にするのはコストがかかる • → Self-attentionでcost-effectiveに大局的な依存関係を抽出(後述) (FID) Miyato et al. ICLR 2018. cGANs WITH PROJECTION DISCRIMINATOR
9.
9©2019 ARISE analytics GANの評価基準 •
Inception Score (IS) GANによる生成画像が各クラスを上手く表現できていれば、学習済みモデル(Inception)による 生成画像の分類予測p(y|x)のエントロピーは小さい GANによる生成画像のバリエーションが多ければモデル出力の分布p(y)のエントロピーは大きい • Fréchet Inception distance (FID) Inceptionモデルの特定の層にデータと生成画像からのサンプルを写像し、多変量ガウス分布とみ なして平均・共分散を計算 それらを用いてFréchet距離を計算 ISに比べmode collapseをより的確に捉えることができる Lucic et al. NeurIPS 2018. Are GANs Created Equal? A Large-Scale Study
10.
10©2019 ARISE analytics Lipschitz連続 •
GANの学習を安定させるにはLipschitz連続であることが重要であると最近の研究で議論されている (e.g. Wasserstein GAN) • ある写像fがLipschitz連続であるとき、実定数K(≥0)が存在して下式をみたす • Lipschitz連続な写像fにおいて、下図のように常にその外側にグラフが存在する双錐が存在 • Wasserstein GANにおいては、ニューラルネットをLipschitz連続な写像にするためにweight clippingを行った Arjovsky et al. ICML 2017. Wasserstein Generative Adversarial Networks
11.
11©2019 ARISE analytics Spectral
Normalization • 活性化関数のLipschitz normが1とすると、ニューラルネットのLipschitz normは各線形層の Lipschitz normの積で表せる • 定義より行列AのSpectral normは式(1)で表され、また行列Aの最大特異値に等しい • 定義より式(2)のように、線形層g(h)=WhのLipschitz normは重み行列WのSpectral normに 等しい • 式(3)の様に重みを正規化して各層にてLipschitz制約σ(W)=1を満たすことにより、ニューラルネッ トfのLipschitz normを1以下に制御 (1) (3) Miyato et al. ICLR 2018. SPECTRAL NORMALIZATION FOR GENERATIVE ADVERSARIAL NETWORKS (2)
12.
12©2019 ARISE analytics Attention •
Source-target attention • 機械翻訳において、Encoder-decoder networkではencoderの出力である固定長ベクトルを decoderに入力として与えるため、長文の場合精度が悪かった • Source(Key & Value)とTarget(Query)の関係性を同時に学習させ、文章入力のどこを重点的に処 理するかのAttention機構を取り入れることにより、長文に対しても精度が向上 • Self-attention • Self-attentionにおいてはKey/Value/Queryが同一の場所(Self)、つまり直前の隠れ層から来る • Self-attentionはある位置の出力を求めるのに下の隠れ層の全ての位置を参照でき、これは局所的な 位置しか参照できない畳み込み層より優れた利点である Luong et al. 2015. Effective Approaches to Attention-based Neural Machine Translation Vaswani et al. NIPS 2017. Attention Is All You Need
13.
13©2019 ARISE analytics 本論文
14.
14©2019 ARISE analytics Self-attention
on image • Self-attention GAN(SAGAN)はself-attentionを用いてattention mapを学習することにより、大局的な 依存関係を推測する • 各クエリ(色ドット)と対応するattention map(白色強度)の例が下図 Zhang et al. 2018. Self-Attention Generative Adversarial Networks
15.
15©2019 ARISE analytics Self-attention
mechanism ( ) Zhang et al. 2018. Self-Attention Generative Adversarial Networks
16.
16©2019 ARISE analytics Self-attention
mechanism ( ) Zhang et al. 2018. Self-Attention Generative Adversarial Networks
17.
17©2019 ARISE analytics Effect
of spectral normalization • Spectral Normalizationにより学習が安定 • Spectral Normalizationは元論文ではDiscriminatorのみに適用していたが、Generatorにも適用することでより安定 • Two-timescale update rule (TTUR)という、Generatorの学習率をDiscriminatorの学習率より小さくす る手法により学習が高速化 Zhang et al. 2018. Self-Attention Generative Adversarial Networks
18.
18©2019 ARISE analytics Self-attention
vs residual block • Self-attentionという新たなブロックを加え層が深くなったことによる精度向上の可能性を検証するため、対照群 としてResidualブロックを加えたネットワークと比較 • SAGANがFID/ISいずれの指標でもベストスコア、より深い層にブロック挿入した方が高精度 Zhang et al. 2018. Self-Attention Generative Adversarial Networks
19.
19©2019 ARISE analytics Self-attention
visualization • Generator側のself-attentionを用いた最後の層のattention mapを可視化 • 鳥の尾や犬の足などの、畳み込みでは捉えづらい大局的な依存関係をattentionが捉えている Zhang et al. 2018. Self-Attention Generative Adversarial Networks
20.
20©2019 ARISE analytics SOTA
on class-conditional GAN • 既存の多クラス画像生成手法と比較 • SOTAを達成、大幅に精度が向上 Zhang et al. 2018. Self-Attention Generative Adversarial Networks
21.
21©2019 ARISE analytics SAGAN-generated
images Zhang et al. 2018. Self-Attention Generative Adversarial Networks
22.
22©2019 ARISE analytics Summary •
Self-attentionを用いて大局的な依存関係を抽出 • Spectral normalizationをDiscriminator/Generator双方に適用することによりGAN学習を安定化 • TTURによりGAN学習を高速化 • 多クラス画像生成においてSOTAを達成、大幅に精度が向上
23.
23©2019 ARISE analytics