5. Batch Normalization is a Cause of Adversarial
Vulnerability
• とりあえずBatch Normって風潮があるけど実際どうなの?というのを
検証した論文
• 特定の条件下(NoisyだったりDeep過ぎたりするとき)にBatch Norm
を使わない方が精度が良かったと報告
• タスク設定だったりとかで要素が複合的過ぎるので安易にこれで判断は
出来ないが、有効とされている手法について一度疑ってみて、有効条件
を明確化しようという研究は必ず必要とされると思う
• However, it also reduces robustness
to small adversarial input
perturbations and noise
by double-digit percentages,
as we show on five standard datasets.
• Furthermore, substituting weight decay
for batch norm is sufficient to nullify
the relationship between adversarial
vulnerability and the input dimension.
資料:https://arxiv.org/pdf/1905.02161.pdf
6. Predicting the accuracy of neural networks
from final and intermediate layer output
• モデル中間層の挙動を見て『モデルの識別結果が正しいか誤りか』を予
測出力するモデルを提案
• こういうのって、だいたい『正誤判定するモデルの正誤判定は?』とい
いう点が疑問になって収束しない印象がある
• しかし、ImageNetを除いた定番タスクならば、そこそこの性能で正誤
判定できていた
7. Building and Structuring Training Sets for
Multi-Task Learning (Alex Ratner)
• モデル設計はもうええから、もっとデータの工夫しようぜという話
• Labeling、Augmentation、さらにはSlicingの3つが重要だと述べた
• 詳しくは下記サイトで勉強しましょう(帰国したら読もう)
• https://dawn.cs.stanford.edu/2019/06/15/superglue/
11. Learning to Predict Without Looking Ahead:
World Model Without Forward Prediction
• 人間はあらゆるものを知覚しているわけではないという仮説から、外界
からの刺激を元に外界世界をシミュレートする”World Model”を構築する
• ”World Model”は外界世界の抽象表現を獲得し、潜在空間にて未来状態を
予測し、最適行動選択をする。これをVAEやRNNによって実現していた。
• 確率pで実環境か抽象表現のどちらかを観測するObservational Dropout
を新規提案。
• 直感的な理解としては、抽象表現=自分が想像した環境なので、確率p
で観測される実環境とのGAPを埋めようと勝手に学習してくれる寸法。
In doing so, we can coerce an agent into learning a world model
to fill in the observation gaps seen during reinforcement learning
without having to explicitly train the world model via teacher forcing.