More Related Content
More from Deep Learning JP (20)
【DL輪読会】AutoDropout: Learning Dropout Patterns to Regularize Deep Networks
- 1. 1
DEEP LEARNING JP
[DL Papers]
http://deeplearning.jp/
AutoDropout: Learning Dropout Patterns to Regularize
Deep Networks
Jun Hozumi, Matsuo Lab
- 2. 書誌情報
• Title: AutoDropout: Learning Dropout Patterns to Regularize Deep Networks
• Author: Hieu Pham and Quoc V. Le
• Google Research, Brain Team
• Date: 5 Jan 2021
• Conf.: AAAI 2021 (Accepted)
• Paper: https://arxiv.org/abs/2101.01761v1
• スライド中の図表は本論文から引用
• 詳細な議論は元論文やgithub上のコードを参照してください
2
- 7. 本研究での記法
• 本研究ではDropOutパターンは既存研究と同様に、要素ごとの乗算マスクで表現する
• ℎ層へDropoutするために、ℎと同サイズのバイナリマスク𝑚を適用し、スケールする
• 本研究では、テンソルを(𝑁, 𝑑1, 𝑑2, … , 𝑑𝑘, 𝐶)と表現する
• 𝑁はバッチの次元、𝐶は特徴量の次元、𝑑は時空間の次元
• ConvNetは(𝑁, 𝐻, 𝑊, 𝐶)、𝐻と𝑊は層の高さと幅
• Transformerの出力は(𝑁, 𝑇, 𝐶)、𝑇はトークン数を表す時間次元
• ConvNetとTransformerでテンソル表現が異なるので、前者から考えていく
7
- 21. 探索手法の比較
• Neural Architecture Searchにおいては、ランダムサーチが良いベースラインであることが
知られている
• AutoDropoutの探索とランダムサーチでパターンのサンプリングを比較した
• AutoDropOutで発見されたパターンのほうが高いパフォーマンスを示した
21