Weitere ähnliche Inhalte
Ähnlich wie [DL輪読会] Residual Attention Network for Image Classification (16)
Mehr von Deep Learning JP (20)
Kürzlich hochgeladen (11)
[DL輪読会] Residual Attention Network for Image Classification
- 3. 0. Information
• Author
- Fei Wang, Mengqing Jiang, Chen Qian, Shuo Yang, Cheng Li, Honggang
Zhang, Xiaogang Wang, Xiaoou Tang
• Submission date
- Submitted on 23 Apr 2017
• Society
- accepted to CVPR2017
- https://arxiv.org/abs/1704.06904
• About
- Computer vision において,ResNet だけでなくAttentionも取り⼊れたも
の
- まだpaperは出ていないが,ILSVRC2017で優勝したSqueeze-and-
Excitation networksの前⾝?のモデル
- 5. 1. Introduction
- モデル構造と成果
1. Stacked network structure
• 複数のAttention Moduleを積み⽴てたモデル構造.異なるAttention Moduleで異なる種類
のAttentionを導⼊できる
2. Attention Residual Learning
• 単純にAttention Moduleを導⼊するだけでは精度が下がる.ResNetを⽤いて深
い(hundreds of layers)のネットワークを⽤いる
3. Bottom-up top-down feedforward attention
• Bottom-up(背景の違いなどから)attention(注⽬)するアプローチ
• Top-down(事前知識などから)attention(注⽬)するアプローチ
1. 安定して層を増やし精度向上(state-of-the-art@2017-04-23)
2. End-to-Endの深いネットワークに簡単に適⽤でき,
効率的な計算を⾏うことができる
- 6. 2. Related work & knowledge
- Attention model
• Attention機構が適⽤されるのは,多くの場合RNN
Effective Approaches to Attention-based Neural Machine Translationの例
1. RNNにより隠れ層ベクトルを計算
ℎ" = 𝑅𝑁𝑁(ℎ"'(, 𝑥)
2. ⼊⼒系列のどこに注⽬するかの重み𝑎"(𝑠)をscore関数により計算
𝑎" 𝑠 =
exp 𝑠𝑐𝑜𝑟𝑒(ℎ67, ℎ")
∑ exp 𝑠𝑐𝑜𝑟𝑒(ℎ67, ℎ")
3. 重み𝑎" 𝑠 を⽤いて重み付き平均ベクトル𝑐"を計算
𝑐" = : 𝑎"(𝑠) ℎ67
4. 3.の平均ベクトルと1.の隠れ層ベクトルから新しい出⼒ベクトルを計算
ℎ;" = tanh ( 𝑊Aℎ" + 𝑊C 𝑐" + 𝑏)
5. 各単語の出⼒確率を計算
𝑦" = 𝑠𝑜𝑓𝑡𝑚𝑎𝑥((𝑊IJ"ℎ;" + 𝑏IJ")
• Computer visionにおいては,以下のような研究でsoft attention(みたいなも
の)が使われている
• Spatial Transformer Network[17] ->(⾯⽩いdemo:
https://drive.google.com/file/d/0B1nQa_sA3W2iN3RQLXVFRkNXN0k/view)
• Attention to scale: Scale-aware semantic image segmentation[3]
[引⽤:Effective Approaches to Attention-based Neural Machine Translation]