SlideShare ist ein Scribd-Unternehmen logo
1 von 28
tattaka
(自己紹介)
tattaka
Twitter:@tattaka_sun
GitHub: https://github.com/tattaka
趣味:競プロ・Kaggle・料理・VTuber(見るだけ)
最近の興味:
• Robot Vision
• Semi/Weakly Supervised Semantic Segmentation
(よく使うicon)
Agenda
1. Abstract
2. 論文の目的・貢献
3. ベースラインの設定
4. 効率的なトレーニング手順
5. ResNetモデル構造の調整
6. トレーニング方法の改良
7. 転移学習
8. まとめ
Abstract
• 近年の画像分類の論文ではネットワーク構造の改良の他にData
Augmentや最適化手法などのトレーニング手法の改良にも貢献して
いるが,その多くは実装の詳細としてやソースコードのみで言及さ
れている
• この論文はそれらのテクニックをまとめてそれらを組み合わせるこ
とで様々なCNNモデルの精度を改善する
Agenda
1. Abstract
2. 論文の目的・貢献
3. ベースラインの設定
4. 効率的なトレーニング手順
5. ResNetモデル構造の調整
6. トレーニング方法の改良
7. 転移学習
8. まとめ
論文の目的・貢献
• これまで各々の実装の中でしか触れられていないようなテク
ニックをサーベイ
• これらのテクニックを用いることでSE-ResNext50などの他の
新しい手法よりも計算量的にわずかの変更で精度が改善される
ことを示す(→CNN系Paper全体のベースラインの底上げを目
指す?)
Agenda
1. Abstract
2. 論文の目的・貢献
3. ベースラインの設定
4. 効率的なトレーニング手順
5. ResNetモデル構造の調整
6. トレーニング方法の改良
7. 転移学習
8. まとめ
ベースラインの設定(1/2)
前処理の手順として以下を行なった
1. 画像をランダムにサンプリングし,pixel値を[0, 255]にデコード
(fp32)
2. 画像からアスペクト比[3/4, 4/3]、面積が[8%, 100%]の間でラ
ンダムに切り抜いた領域を(224, 224)にリサイズ
3. 50%の確率で水平にFlip
4. [0.6, 1.4]の間の一様分布に基づいた係数で色相・明度・彩度を
スケール
5. 正規分布N(0, 0.1)に基づいた係数でPCAノイズを追加
6. [123.68, 116.779, 103.939]を減算し[58.393, 57.12,
57.375]で除算して正規化
ベースラインの設定(2/2)
• テスト時には画像の短辺をアスペクト比を維持したまま
256pixelにした後,中央(224, 224)を切り抜き
• ネットワークの重みはXavierアルゴリズムで初期化
• OptimizerはSDG+Nesterov Accelerated Gradient
• Nvidia V100 x 8で各GPUバッチサイズ32,120epoch訓練
• 初期 lr=0.1,30・60・90epochで1/10
結果(Inception-V3のinputは(299, 299))
→
Agenda
1. Abstract
2. 論文の目的・貢献
3. ベースラインの設定
4. 効率的なトレーニング手順
5. ResNetモデル構造の調整
6. トレーニング方法の改良
7. 転移学習
8. まとめ
効率的なトレーニング手順(1/3)
近年,GPUの発達により数年前に比べて効率的なトレーニング手順は変
化している(低い数値精度(fp16)+大きなバッチサイズなど)
精度を落とさず効率化するには
• 学習率の線形スケーリング
• 学習率のウォームアップ
• ResNetに置けるパラメータγの0初期化
• 重み減衰をバイアス項に適用しない
• スカラーの乗算・更新用のパラメータのfp32コピー
効率的なトレーニング手順(2/3)
ResNetに置けるパラメータγの0初期化
学習可能なパラメータ𝛾を0で初期化することで
初期段階の訓練が容易になる
input:𝑥
Output: 𝛾 𝑥 𝐴 + 𝑥 𝑏
効率的なトレーニング手順(3/3)
Baseline (BS=256 with fp32)とEfficient(BS=1024 with fp16)精度
と学習速度の結果
それぞれのテクニック別の効果内訳
Agenda
1. Abstract
2. 論文の目的・貢献
3. ベースラインの設定
4. 効率的なトレーニング手順
5. ResNetモデル構造の調整
6. トレーニング方法の改良
7. 転移学習
8. まとめ
ResNetモデル構造の調整(1/3)
resnet-A resnet-B resnet-C resnet-D
標準的なresnet-Aから微調整されたresnet-B・C・Dについて検討する
ResNetモデル構造の調整(2/3)
• resnet-B
• ResNetのDown Sampling Blockを変更
• 2つ目のConv層でstrideを行うことで情報の損失を防ぐ
• resnet-C
• ResNetのinput stemを変更
• resnet-Aのinput stemでは7x7の畳み込みを用いているが計算コストが高い
ため3x3の畳み込みに置き換える
• resnet-D
• ResNetのDown Sampling Blockを変更
• Path Bの1x1畳み込みで3/4の情報が失われるため事前に2x2のAverage
Poolingを追加
ResNetモデル構造の調整(3/3)
結果として,計算時間を犠牲にせずに元のResNetから1%ほどの
精度向上!
Agenda
1. Abstract
2. 論文の目的・貢献
3. ベースラインの設定
4. 効率的なトレーニング手順
5. ResNetモデル構造の調整
6. トレーニング方法の改良
7. 転移学習
8. まとめ
トレーニング方法の改良(1/6)
その他のモデル精度向上のためのテクニックについて
• 学習率のcosine減衰
• ラベル平滑化
• 蒸留
• Mix Up
トレーニング方法の改良(2/6)
学習率のcosine減衰
下の図(a)のようにあるepochで学習率を除算するのではなく
cosine関数にしたがって学習率を減衰させる
(𝜂は初期学習率,𝑇, 𝑡は最大/現在の𝑒𝑝𝑜𝑐ℎ数)
トレーニング方法の改良(3/6)
ラベル平滑化
通常,Image Classficationには正解ラベルをOne-Hot
ベクトルとして表すが,正解ラベルの要素に小さい定数
𝜀を足し,それ以外に𝜀を引くことで理想的な出力が有限
に抑えられる(𝐾はベクトルの長さ)
トレーニング方法の改良(4/6)
蒸留
𝐿 = 𝐿1 + 𝐿2
𝐿1 = Loss p, softmax z
𝐿2 = 𝑇2
Loss softmax
z
𝑇
, softmax
r
T
(𝑇はsoftmaxの値をどれだけ滑らかにするかのHP)
トレーニング方法の改良(5/6)
MixUp
学習時にバッチの中から 𝑥𝑖, 𝑦𝑖 , (𝑥𝑗, 𝑦𝑗)の2つの組をサンプリ
ングして以下のように混ぜ合わせる(𝜆はベータ分布β(𝛼, 𝛼)から
サンプリング)
Saint Bernard
[0.0, 1.0]
Miniature Poodle
[1.0, 0.0]
[0.4, 0.6]
トレーニング方法の改良(6/6)
組み合わせることでTop-1・5ともに精度向上
別データセットでも有効!
Agenda
1. Abstract
2. 論文の目的・貢献
3. ベースラインの設定
4. 効率的なトレーニング手順
5. ResNetモデル構造の調整
6. トレーニング方法の改良
7. 転移学習
8. まとめ
転移学習
物体検出やSemantic Segmentationでもこれまでのテクニック
を使って学習したモデルが転移学習したら効果があるかどうか
検証した
Faster-RCNN on Pascal VOC FCN on ADE20K
Agenda
1. Abstract
2. 論文の目的・貢献
3. ベースラインの設定
4. 効率的なトレーニング手順
5. ResNetモデル構造の調整
6. トレーニング方法の改良
7. 転移学習
8. まとめ
まとめ
• 広く適用できるかつ簡易で計算量に関わらない変更で
ResNet50・Inception-V3の精度を向上させることができた
• それぞれのテクニック単体だけでなく組み合わせることで精度
が向上することも確認した
• 転移学習においても良い結果を得ることができた

Weitere ähnliche Inhalte

Was ist angesagt?

MS COCO Dataset Introduction
MS COCO Dataset IntroductionMS COCO Dataset Introduction
MS COCO Dataset IntroductionShinagawa Seitaro
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説tancoro
 
[DL輪読会]Objects as Points
[DL輪読会]Objects as Points[DL輪読会]Objects as Points
[DL輪読会]Objects as PointsDeep Learning JP
 
Kaggleのテクニック
KaggleのテクニックKaggleのテクニック
KaggleのテクニックYasunori Ozaki
 
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法CV分野におけるサーベイ方法
CV分野におけるサーベイ方法Hirokatsu Kataoka
 
Masked Autoencoders Are Scalable Vision Learners
Masked Autoencoders Are Scalable Vision LearnersMasked Autoencoders Are Scalable Vision Learners
Masked Autoencoders Are Scalable Vision LearnersGuoqingLiu9
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイcvpaper. challenge
 
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)cvpaper. challenge
 
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View SynthesisKento Doi
 
モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019Yusuke Uchida
 
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII
 
平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット
平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット
平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカットMPRG_Chubu_University
 
[DL輪読会]“Spatial Attention Point Network for Deep-learning-based Robust Autono...
[DL輪読会]“Spatial Attention Point Network for Deep-learning-based Robust Autono...[DL輪読会]“Spatial Attention Point Network for Deep-learning-based Robust Autono...
[DL輪読会]“Spatial Attention Point Network for Deep-learning-based Robust Autono...Deep Learning JP
 
分散深層学習 @ NIPS'17
分散深層学習 @ NIPS'17分散深層学習 @ NIPS'17
分散深層学習 @ NIPS'17Takuya Akiba
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカットTsubasa Hirakawa
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised LearningまとめDeep Learning JP
 
Go-ICP: グローバル最適(Globally optimal) なICPの解説
Go-ICP: グローバル最適(Globally optimal) なICPの解説Go-ICP: グローバル最適(Globally optimal) なICPの解説
Go-ICP: グローバル最適(Globally optimal) なICPの解説Yusuke Sekikawa
 
論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural NetworksSeiya Tokui
 

Was ist angesagt? (20)

MS COCO Dataset Introduction
MS COCO Dataset IntroductionMS COCO Dataset Introduction
MS COCO Dataset Introduction
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
 
[DL輪読会]Objects as Points
[DL輪読会]Objects as Points[DL輪読会]Objects as Points
[DL輪読会]Objects as Points
 
Kaggleのテクニック
KaggleのテクニックKaggleのテクニック
Kaggleのテクニック
 
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法CV分野におけるサーベイ方法
CV分野におけるサーベイ方法
 
Masked Autoencoders Are Scalable Vision Learners
Masked Autoencoders Are Scalable Vision LearnersMasked Autoencoders Are Scalable Vision Learners
Masked Autoencoders Are Scalable Vision Learners
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
 
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
 
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
 
モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019
 
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
 
平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット
平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット
平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット
 
[DL輪読会]“Spatial Attention Point Network for Deep-learning-based Robust Autono...
[DL輪読会]“Spatial Attention Point Network for Deep-learning-based Robust Autono...[DL輪読会]“Spatial Attention Point Network for Deep-learning-based Robust Autono...
[DL輪読会]“Spatial Attention Point Network for Deep-learning-based Robust Autono...
 
分散深層学習 @ NIPS'17
分散深層学習 @ NIPS'17分散深層学習 @ NIPS'17
分散深層学習 @ NIPS'17
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカット
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
 
Semantic segmentation
Semantic segmentationSemantic segmentation
Semantic segmentation
 
Go-ICP: グローバル最適(Globally optimal) なICPの解説
Go-ICP: グローバル最適(Globally optimal) なICPの解説Go-ICP: グローバル最適(Globally optimal) なICPの解説
Go-ICP: グローバル最適(Globally optimal) なICPの解説
 
論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks
 
研究効率化Tips Ver.2
研究効率化Tips Ver.2研究効率化Tips Ver.2
研究効率化Tips Ver.2
 

Ähnlich wie 【論文読み】Bag of Tricks for Image Classification with Convolutional Neural Networks

Development and Experiment of Deep Learning with Caffe and maf
Development and Experiment of Deep Learning with Caffe and mafDevelopment and Experiment of Deep Learning with Caffe and maf
Development and Experiment of Deep Learning with Caffe and mafKenta Oono
 
ASP.NETCoreOptionsPattern.pptx
ASP.NETCoreOptionsPattern.pptxASP.NETCoreOptionsPattern.pptx
ASP.NETCoreOptionsPattern.pptxTakao Tetsuro
 
こんなに使えるTrainer
こんなに使えるTrainerこんなに使えるTrainer
こんなに使えるTrainerYuta Koreeda
 
An Agile Way As an SET at LINE
An Agile Way As an SET at LINEAn Agile Way As an SET at LINE
An Agile Way As an SET at LINELINE Corporation
 
Chainer Contribution Guide
Chainer Contribution GuideChainer Contribution Guide
Chainer Contribution GuideKenta Oono
 
OSSデータベースの開発コミュニティに参加しよう! (DEIM2024 発表資料)
OSSデータベースの開発コミュニティに参加しよう! (DEIM2024 発表資料)OSSデータベースの開発コミュニティに参加しよう! (DEIM2024 発表資料)
OSSデータベースの開発コミュニティに参加しよう! (DEIM2024 発表資料)NTT DATA Technology & Innovation
 
ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題Kenta Oono
 
NuGet でゲット! Visual Studio パッケージ マネージャ―概要
NuGet でゲット! Visual Studio パッケージ マネージャ―概要NuGet でゲット! Visual Studio パッケージ マネージャ―概要
NuGet でゲット! Visual Studio パッケージ マネージャ―概要Akira Inoue
 
Skinny Controllers, Skinny Models
Skinny Controllers, Skinny ModelsSkinny Controllers, Skinny Models
Skinny Controllers, Skinny ModelsKazuhiro Sera
 
【de:code 2020】 Azure Kubernetes Service と Azure DevOps による GitOps の実践
【de:code 2020】 Azure Kubernetes Service と Azure DevOps による GitOps の実践【de:code 2020】 Azure Kubernetes Service と Azure DevOps による GitOps の実践
【de:code 2020】 Azure Kubernetes Service と Azure DevOps による GitOps の実践日本マイクロソフト株式会社
 
TeachmeBizを支えるフロントエンドのアーキテクチャと品質担保
TeachmeBizを支えるフロントエンドのアーキテクチャと品質担保TeachmeBizを支えるフロントエンドのアーキテクチャと品質担保
TeachmeBizを支えるフロントエンドのアーキテクチャと品質担保Shingo Sasaki
 
Git & ブランチモデルで学ぶ バージョン管理入門
Git & ブランチモデルで学ぶ バージョン管理入門Git & ブランチモデルで学ぶ バージョン管理入門
Git & ブランチモデルで学ぶ バージョン管理入門kazuki kuriyama
 
続・Twitter bootstrap入門 #html5j
続・Twitter bootstrap入門 #html5j続・Twitter bootstrap入門 #html5j
続・Twitter bootstrap入門 #html5jToshiaki Maki
 
[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A SurveyDeep Learning JP
 
Jubatusでマルウェア分類
Jubatusでマルウェア分類Jubatusでマルウェア分類
Jubatusでマルウェア分類Shuzo Kashihara
 
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on TwitterKDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twittersleepy_yoshi
 
CIサーバを制圧せよ! - プロジェクトメトリクスと自動化技術の活用よる混乱の収拾と「最強」の組織の育成
CIサーバを制圧せよ! - プロジェクトメトリクスと自動化技術の活用よる混乱の収拾と「最強」の組織の育成CIサーバを制圧せよ! - プロジェクトメトリクスと自動化技術の活用よる混乱の収拾と「最強」の組織の育成
CIサーバを制圧せよ! - プロジェクトメトリクスと自動化技術の活用よる混乱の収拾と「最強」の組織の育成Rakuten Group, Inc.
 

Ähnlich wie 【論文読み】Bag of Tricks for Image Classification with Convolutional Neural Networks (20)

Development and Experiment of Deep Learning with Caffe and maf
Development and Experiment of Deep Learning with Caffe and mafDevelopment and Experiment of Deep Learning with Caffe and maf
Development and Experiment of Deep Learning with Caffe and maf
 
ASP.NETCoreOptionsPattern.pptx
ASP.NETCoreOptionsPattern.pptxASP.NETCoreOptionsPattern.pptx
ASP.NETCoreOptionsPattern.pptx
 
こんなに使えるTrainer
こんなに使えるTrainerこんなに使えるTrainer
こんなに使えるTrainer
 
2014.07.02 EDUPUB技術の日本への適用
2014.07.02 EDUPUB技術の日本への適用2014.07.02 EDUPUB技術の日本への適用
2014.07.02 EDUPUB技術の日本への適用
 
An Agile Way As an SET at LINE
An Agile Way As an SET at LINEAn Agile Way As an SET at LINE
An Agile Way As an SET at LINE
 
Osc2010 Slide
Osc2010 SlideOsc2010 Slide
Osc2010 Slide
 
Chainer Contribution Guide
Chainer Contribution GuideChainer Contribution Guide
Chainer Contribution Guide
 
OSSデータベースの開発コミュニティに参加しよう! (DEIM2024 発表資料)
OSSデータベースの開発コミュニティに参加しよう! (DEIM2024 発表資料)OSSデータベースの開発コミュニティに参加しよう! (DEIM2024 発表資料)
OSSデータベースの開発コミュニティに参加しよう! (DEIM2024 発表資料)
 
ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題
 
NuGet でゲット! Visual Studio パッケージ マネージャ―概要
NuGet でゲット! Visual Studio パッケージ マネージャ―概要NuGet でゲット! Visual Studio パッケージ マネージャ―概要
NuGet でゲット! Visual Studio パッケージ マネージャ―概要
 
Skinny Controllers, Skinny Models
Skinny Controllers, Skinny ModelsSkinny Controllers, Skinny Models
Skinny Controllers, Skinny Models
 
【de:code 2020】 Azure Kubernetes Service と Azure DevOps による GitOps の実践
【de:code 2020】 Azure Kubernetes Service と Azure DevOps による GitOps の実践【de:code 2020】 Azure Kubernetes Service と Azure DevOps による GitOps の実践
【de:code 2020】 Azure Kubernetes Service と Azure DevOps による GitOps の実践
 
TeachmeBizを支えるフロントエンドのアーキテクチャと品質担保
TeachmeBizを支えるフロントエンドのアーキテクチャと品質担保TeachmeBizを支えるフロントエンドのアーキテクチャと品質担保
TeachmeBizを支えるフロントエンドのアーキテクチャと品質担保
 
Git & ブランチモデルで学ぶ バージョン管理入門
Git & ブランチモデルで学ぶ バージョン管理入門Git & ブランチモデルで学ぶ バージョン管理入門
Git & ブランチモデルで学ぶ バージョン管理入門
 
続・Twitter bootstrap入門 #html5j
続・Twitter bootstrap入門 #html5j続・Twitter bootstrap入門 #html5j
続・Twitter bootstrap入門 #html5j
 
[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey
 
Jubatusでマルウェア分類
Jubatusでマルウェア分類Jubatusでマルウェア分類
Jubatusでマルウェア分類
 
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on TwitterKDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
 
CIサーバを制圧せよ! - プロジェクトメトリクスと自動化技術の活用よる混乱の収拾と「最強」の組織の育成
CIサーバを制圧せよ! - プロジェクトメトリクスと自動化技術の活用よる混乱の収拾と「最強」の組織の育成CIサーバを制圧せよ! - プロジェクトメトリクスと自動化技術の活用よる混乱の収拾と「最強」の組織の育成
CIサーバを制圧せよ! - プロジェクトメトリクスと自動化技術の活用よる混乱の収拾と「最強」の組織の育成
 
IDPF、W3Cのデジタル教科書、教材関連標準化動向
IDPF、W3Cのデジタル教科書、教材関連標準化動向IDPF、W3Cのデジタル教科書、教材関連標準化動向
IDPF、W3Cのデジタル教科書、教材関連標準化動向
 

【論文読み】Bag of Tricks for Image Classification with Convolutional Neural Networks

Hinweis der Redaktion

  1. 大規模なバッチサイズでトレーニングするときはバッチサイズに応じて学習率を線形に変化させると精度の低下が抑えられることが知られています(0.1 × b/256) 学習率のウォームアップは初めは少ない学習率から始め、徐々に学習が安定化するにつれ初期学習率に戻すことです ResNetに置けるパラメータgammaの0初期化については次のスライドで説明します fp16でパラメータを更新すると高速化するが、値がオーバーフローしたりするので定数をかけてfp16に収めたりパラメータを更新するときだけfp32を使ったりすると良いようです
  2. resnet-AのDown Sampling Blockでは初めのConv層でstrideしているので次の層までに3/4の情報が失われます。
  3. resnet-AのDown Sampling Blockでは初めのConv層でstrideしているので次の層までに3/4の情報が失われます。
  4. softmax cross entropyをそのまま使うと正解ラベル 𝑦 𝑖 に対する理想的な出力のベクトルは1要素がinf,それ以外が十分に小さいベクトルになり,過学習につながる
  5. ResNet152のような大規模な学習済みモデルの出力にResNet50のような小規模のモデルの出力が合うように学習することでモデルの規模を落としつつ精度を下げないことができる
  6. CutMixとかRICAPとか同じようなdata augment方法はたくさんある manifold mixupなどの発展系も最近出てきてる
  7. Semantic SegmentationでのLabel Smoothingや蒸留・MixUpはピクセル単位の情報が欠落するからではと説明されています