SlideShare ist ein Scribd-Unternehmen logo
1 von 33
Downloaden Sie, um offline zu lesen
最新の異常検知論⽂のまとめ
ぱんさん@カーネル
そもそも異常とは︖
n 学習しているクラス以外のクラスのこと (Out-of-distribution)
n よくある問題設定で,多数の論⽂が存在する
n 学習したクラスの物体中のキズやよごれ
n データセットが最近までなかった or 問題が難しいため,
この異常に関する論⽂は極めて少ない
n MVTec AD — A Comprehensive Real-World Dataset for
Unsupervised Anomaly Detection (CVPR 2019)
n データセット論⽂
訓練データ テストデータ
正常 異常
学習しているクラス以外のクラスを検知する問題設定は主に2つ
n Out-of-distribution detection: 異常を⾒つける
n One-class classification: ⼀つのクラスの正常データを利⽤して,それ以外の異常データを検知する
n Deep Autoencoding Gaussian Mixture Model for Unsupervised Anomaly Detection (ICLR 2018)
n Deep Anomaly Detection Using Geometric Transformations (NIPS 2018)
n OCGAN- One-class Novelty Detection Using GANs with Constrained Latent Representations (CVPR 2019)
n Multi-class classification: 複数のクラスの正常データを利⽤して,それ以外の異常データを検知する
n A Baseline for Detecting Misclassified and Out-of-Distribution Examples in Neural Networks(ICLR 2017)
n Enhancing The Reliability of Out-of-distribution Image Detection in Neural Networks(ICLR 2018)
n Training Confidence-calibrated Classifiers for Detecting Out-of-Distribution Samples (ICLR 2018)
n A Simple Unified Framework for Detecting Out-of-Distribution Samples and Adversarial Attacks (NIPS 2018)
n Learning Confidence for Out-of-Distribution Detection in Neural Networks
n Predictive Uncertainty Estimation via Prior Networks (NIPS 2018)
n Deep Anomaly Detection with Outlier Exposure (ICLR 2019)
n Open Set Recognition: 異常を⾒つける ∧ 正常を正しく分類できる
n Towards Open Set Deep Networks (CVPR 2016)
n Generative OpenMax for Multi-Class Open Set Classification
n Open Set Learning with Counterfactual Images (ECCV 2018)
n C2AE- Class Conditioned Auto-Encoder for Open-set Recognition (CVPR 2019)
n Classification-Reconstruction Learning for Open-Set Recognition (CVPR 2019)
Out-of-distribution detectionの問題設定は2つ
n One-class classification: ⼀つのクラスの正常クラスのサンプルのみ訓練データとして与え
られ,テストデータを異常サンプルかどうかを分類する
n Multi-class classification: 複数のクラスの正常クラスのサンプルのみ訓練データとして与え
られ,テストデータを異常サンプルかどうかを分類する
訓練データ(すべて正常データ)
テストデータ
正常 異常
訓練データ(すべて正常データで⽝カテゴリと⿃カテゴリが存在する) テストデータ
正常 異常⽝ ⿃
猫
One-class classification の主な⽅法は3つ
n 再構成したときのロスを使う (PCA, Robust-PCA, deep autoencoders, ADGAN…)
n 再構成ベースの⼿法で学習された表現を使う
n One Class SVM を⽤いる
異常画像は再構成がうまくいかないはず,というアイデア
再構成画像テスト画像
L2ロス
One-class classification の主な⽅法は3つ
n 再構成したときのロスを使う
n 再構成ベースの⼿法で学習された表現を使う (KDE, Robust-KDE, DSEBM…)
n One Class SVM を⽤いる
テスト画像
異常画像は潜在空間上で確率密度が⼩さいはず,というアイデア
潜在空間
・
・
・
・・
・
・
・
・
・
・
・
・
・・ ・
・
・
・
・
・
・
・
・
・
・
・
・
・
・
・
・
・・
・
・
・
・
・
・
One-class classification の主な⽅法は3つ
n 再構成したときのロスを使う
n 再構成ベースの⼿法で学習された表現を使う
n One Class SVM を⽤いる (SVDD, Deep SVDD...)
訓練データができるだけ⼩さい超球内に⼊るような写像を学習し
超球外であれば異常画像である,というアイデア
Multi-class classification の主な⽅法
n 識別結果を利⽤する
n キャリブレーションの利⽤
n Enhancing The Reliability of Out-of-distribution Image Detection in Neural Networks(ICLR 2018)
n A Simple Unified Framework for Detecting Out-of-Distribution Samples and Adversarial Attacks (NIPS 2018)
n OODデータの利⽤
n Training Confidence-calibrated Classifiers for Detecting Out-of-Distribution Samples (ICLR 2018)
n Deep Anomaly Detection with Outlier Exposure (ICLR 2019)
n 不確かさの利⽤
n Predictive Uncertainty Estimation via Prior Networks (NIPS 2018)
n Learning Confidence for Out-of-Distribution Detection in Neural Networks
←ソフトマックス層の⼀層前の可視化
識別ロスを利⽤すると,OODは基本的にあいまいな分類結果
となるため,検知ができる
Open Set Recognition とは
n Open set recognitionとは N+1分類のこと
n Nクラスの正常データの分類に加え,テスト時にのみ現れる未知のデータを検知する
n ⼿法はMulti-class classificationのものと近いものが多い
Opennessの定義と例
n 普通の多クラス分類ではopennessはどんな場合でも0
n 顔認証はテストのときに,訓練データの顔と同じかどうかを判定すればよいのでtarget クラ
ス数 = training クラス数となる
n 検知は背景の数(negative class)が⾮常に多くなるが,targetの数は⼀つ
n Object recognitionは普通の分類に加え,それ以外の物体であることを認識する必要がある
Open space riskについて
n 多クラス分類のリスク
n Open space risk
具体的にいくつか論⽂を紹介する
n 学習したクラスの物体中の異常検知
n OOD検知: One-class classification
n OOD検知: Multi-class classification
n Open Set Recognition
具体的にいくつか論⽂を紹介する
n 学習したクラスの物体中の異常検知
n OOD検知: One-class classification
n OOD検知: Multi-class classification
n Open Set Recognition
MVTec AD — A Comprehensive Real-World Dataset for
Unsupervised Anomaly Detection (CVPR 2019)
n 誰もが待ち望んだデータセット論⽂
ベースライン結果
上: 正常データの検出精度,下: 異常データの検出精度 上: 異常箇所と重なった範囲,下: AUROC
具体的にいくつか論⽂を紹介する
n 学習したクラスの物体中の異常検知
n OOD検知: One-class classification
n OOD検知: Multi-class classification
n Open Set Recognition
Deep Autoencoding Gaussian Mixture Model for Unsupervised Anomaly Detection (ICLR 2018)
n ⼿法:
n 次元削減と再構成の情報を利⽤してOODを判定するネットワーク(右図)を提案した
n 再構成誤差最⼩化 + GMMの混合⽐をNNで推定してMLEを⾏うことで,E2Eな学習を可能にした
n 定性的な実験(左図):
n ⾚が異常サンプル,⻘が正常サンプル,縦軸が再構成誤差,横軸が1次元に圧縮したときの値
n 異常サンプルは,低次元で値が異なり,再構成が難しいことがわかる
Deep Anomaly Detection Using Geometric Transformations (NIPS 2018)
n ⼿法:
n 正常な画像なら幾何変換(回転,flipなど)した場合その変換をあてられるはずというアイデア
n 幾何変換で条件づけたときの対数尤度を使ったスコアを定義し,スコアが低いものを異常とみなす
n 結果: AUROCを使って評価し,OC-SVM, DAGMM, DSEBM, ADGANに⼤きく差をつけてSOTA
𝑇#(𝑥) 𝑇'(𝑥) 𝑇((𝑥) 𝑇)(𝑥)
例えば,訓練時に猫の画像(正常画像)の回転を
学習しても,テスト時に⼊⼒された
⽝の画像(異常画像)の回転はわからないはず
ということを利⽤する
詳しくは https://www.slideshare.net/DeepLearningJP2016/
dldeep-anomaly-detection-using-geometric-transformations-138639162
OCGAN- One-class Novelty Detection Using GANs with
Constrained Latent Representations (CVPR 2019)
n ⼿法: 例えば8の画像のみで訓練したモデルが,ほかのクラスの画像もすべて8に再構成する
ことによって,元の画像との誤差から異常を検知する
n 結果: CIFAR10では既存⼿法よりも若⼲のAUROCの向上
アイデアは⾯⽩いけど
結果は微妙だなあと思った
n ⼿法詳細: OCGANは4つの構造が含まれる
n Denoising autoencoder: 再構成するため
n Latent Discriminator: Adversarial Autoencoderのように,Encoderの出⼒を −1,1 -
に近づけることで,
潜在空間を限定する
n Visual Discriminator: −1,1 -
から⽣成したものがすべて学習データのみのデータになるようにする
n Classifier: 再構成したデータを正常,⽣成したデータを異常として学習させた後,Classifierは
Decoderが正常データを⽣成するように勾配を伝える
具体的にいくつか論⽂を紹介する
n 学習したクラスの物体中の異常検知
n OOD検知: One-class classification
n OOD検知: Multi-class classification
n Open Set Recognition
A Baseline for Detecting Misclassified and Out-of-Distribution
Examples in Neural Networks (ICLR 2017)
n 貢献
n multi-class classification分類のときの分布外検出の問題設定を提供し,ベースライン⼿法を提案した
n 提案⼿法: ソフトマックスの出⼒の最⼤値をOODの指標として使う
n アイデア: OODは予測分類が曖昧になるはず
n ex) 3クラスのとき,[0.9, 0.05, 0.05]→正常, [0.3, 0.3, 0.4]→異常
Enhancing The Reliability of Out-of-distribution Image Detection in
Neural Networks(ICLR 2018)
n 提案⼿法
n Baseline⼿法の改良(温度ソフトマックスを使う)
n 異常データと正常データの境界を広くするための前処理
n 結果: Baselineと⼤きく差を広げてSOTA
n ハイパラは検証⽤データ(若⼲のOODデータ)を利⽤してチューニングする
A Simple Unified Framework for Detecting Out-of-Distribution
Samples and Adversarial Attacks (NIPS 2018)
n 提案⼿法:
n 訓練分布から離れたところのサンプルを検出できるように,ソフトマックス層の⼀層前の出⼒の分布
を正規分布であることを仮定し,そこからどれだけ離れているかという⽅法でOOD検知を⾏う
n さらに,精度向上のため,キャリブレーションと特徴アンサンブルを⾏う
n 結果: OOD検知 + 敵対的攻撃でSOTA
詳しくは https://www.slideshare.net/ssuser9eb780/nips-2018-139360134
Training Confidence-calibrated Classifiers for Detecting Out-of-
Distribution Samples (ICLR 2018)
n 提案⼿法
n OODサンプルの予測を⼀様分布に近づけるというキャリブレーションを⾏う
n しかし,⼀般にはOODの分布をサンプルをカバーするようなサンプルはとれないので,GANを利
⽤する(GeneratorのサンプルをOODだと⾒⽴てる)
n OODを利⽤した定性的実験
n ⼀般に,下式のKL項を追加すると,分類精度は落ちるが,訓練データ(正常データ)に近い範囲で
OODデータを訓練データとして利⽤すれば,精度は落ちない → GANを利⽤する
Learning Confidence for Out-of-Distribution Detection in Neural Networks (2018)
n 提案⼿法: 分類確率だけでなく,信頼度を出⼒するようなモデルを提案した
n ⾃信がないときには本当のyを参照でき,それを答えとすることができる
n 参照したときには信頼度が減る
n 答えを参照するときにはペナルティがあり,その分ロスが増えるようになる
トイデータにおける信頼度のプロット
Predictive Uncertainty Estimation via Prior Networks (NIPS 2018)
n 提案⼿法: 事前分布のパラメータをNNで推定し,以下の(c)のデータを検知するモデルの提案
n (a): 正常データを正しく予測できるとき(confident)
n (b): 正常データだが,どのラベルに属しているかわからないとき(known-unknown)
n (c): 異常データ(unknown-unknown)
詳しくは https://www.slideshare.net/DeepLearningJP2016/
dlestimating-predictive-uncertainty-via-prior-networks
𝑥∗
𝑦∗
𝛼 𝜇
[0, 1, 0][0.05, 0.9, 0.05]
Prior Networks
具体的にいくつか論⽂を紹介する
n 学習したクラスの物体中の異常検知
n OOD検知: One-class classification
n OOD検知: Multi-class classification
n Open Set Recognition
Towards Open Set Deep Networks (CVPR 2016)
n 深層学習を使ったOSR問題を解こうとした最初の論⽂
n ⼿法 (Openmax):
n Activation vector (logit)のクラスごとの平均を利⽤してワイブ
ル分布でフィッティングする
n AVが与えられたときの割引率ωをもとめ,分布内確率を割り
引くことで,分布外確率を求める
n 結果: ILSVRC2012のデータセットを利⽤し,softmaxを
使った⽅法よりも精度向上
Open Set Learning with Counterfactual Images (ECCV 2018)
n ⼿法:
n 訓練データに近い(第⼀項)が,どの訓練データにも属さない(第⼆項)ようなデータをGANで作り出す
n Cは分類器で,クラスごとのlogitsのmaxの値が⼩さくなるようにしている
n 作ったデータを利⽤して,K+1クラス⽬を予測する新しい分類器を訓練
Classification-Reconstruction Learning for Open-Set Recognition (CVPR 2019)
n ⼿法: 予測結果とladder networkを使った潜在変
数を利⽤して,OODを検知する
C2AE- Class Conditioned Auto-Encoder for Open-set Recognition (CVPR 2019)
n ⼿法
n 1: Encoderで正常データを分類できるように学習
n 2: 条件付きAEで再構成が⾏えるように学習
n さらに,実際と異なるクラスの条件を利⽤した再構成を⾏
い,しきい値を決定する
n 3: クラス分の条件付き再構成を⾏い,再構成誤差の最⼩
値がしきい値を下回ったら正常,上回ったら異常とする
n 訓練データのみからしきい値τを決めることができることを⽰す図
n 左図: match condition vectorsとnon-match condition vectorsを利⽤したときの再構成誤差のヒストグラム
n 右図: 正常データと異常データの再構成誤差のヒストグラム
n 結果: 既存⼿法を⼤きく引き離してSOTA

Weitere ähnliche Inhalte

Was ist angesagt?

【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者cvpaper. challenge
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選Yusuke Uchida
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法Deep Learning JP
 
【メタサーベイ】Video Transformer
 【メタサーベイ】Video Transformer 【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformercvpaper. challenge
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話Yusuke Uchida
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Yoshitaka Ushiku
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?Masanao Ochi
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -tmtm otm
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情Yuta Kikuchi
 
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習Preferred Networks
 
Transformer 動向調査 in 画像認識(修正版)
Transformer 動向調査 in 画像認識(修正版)Transformer 動向調査 in 画像認識(修正版)
Transformer 動向調査 in 画像認識(修正版)Kazuki Maeno
 
「世界モデル」と関連研究について
「世界モデル」と関連研究について「世界モデル」と関連研究について
「世界モデル」と関連研究についてMasahiro Suzuki
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~nlab_utokyo
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてSho Takase
 
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...joisino
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
 

Was ist angesagt? (20)

【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
 
【メタサーベイ】Video Transformer
 【メタサーベイ】Video Transformer 【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformer
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
 
Transformer 動向調査 in 画像認識(修正版)
Transformer 動向調査 in 画像認識(修正版)Transformer 動向調査 in 画像認識(修正版)
Transformer 動向調査 in 画像認識(修正版)
 
「世界モデル」と関連研究について
「世界モデル」と関連研究について「世界モデル」と関連研究について
「世界モデル」と関連研究について
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
 
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
 
ELBO型VAEのダメなところ
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところ
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 

Ähnlich wie Anomaly detection 系の論文を一言でまとめた

ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ぱんいち すみもと
 
最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介ぱんいち すみもと
 
パンハウスゼミ 異常検知論文紹介 20191005
パンハウスゼミ 異常検知論文紹介  20191005パンハウスゼミ 異常検知論文紹介  20191005
パンハウスゼミ 異常検知論文紹介 20191005ぱんいち すみもと
 
Muramatsu Bachelor Thesis
Muramatsu Bachelor ThesisMuramatsu Bachelor Thesis
Muramatsu Bachelor Thesispflab
 
Cvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakiCvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakitomoaki0705
 
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)Deep Learning JP
 
PoisoningAttackSVM (ICMLreading2012)
PoisoningAttackSVM (ICMLreading2012)PoisoningAttackSVM (ICMLreading2012)
PoisoningAttackSVM (ICMLreading2012)Hidekazu Oiwa
 
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -tmtm otm
 
DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214Kosuke Nakago
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksShingo Horiuchi
 
Datamining 5th Knn
Datamining 5th KnnDatamining 5th Knn
Datamining 5th Knnsesejun
 
R-CNNの原理とここ数年の流れ
R-CNNの原理とここ数年の流れR-CNNの原理とここ数年の流れ
R-CNNの原理とここ数年の流れKazuki Motohashi
 
Datamining 5th knn
Datamining 5th knnDatamining 5th knn
Datamining 5th knnsesejun
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用Seiya Tokui
 
物体検知(Meta Study Group 発表資料)
物体検知(Meta Study Group 発表資料)物体検知(Meta Study Group 発表資料)
物体検知(Meta Study Group 発表資料)cvpaper. challenge
 
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」Naoki Hayashi
 

Ähnlich wie Anomaly detection 系の論文を一言でまとめた (20)

ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)
 
最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介
 
パンハウスゼミ 異常検知論文紹介 20191005
パンハウスゼミ 異常検知論文紹介  20191005パンハウスゼミ 異常検知論文紹介  20191005
パンハウスゼミ 異常検知論文紹介 20191005
 
Anomaly detection survey
Anomaly detection surveyAnomaly detection survey
Anomaly detection survey
 
Muramatsu Bachelor Thesis
Muramatsu Bachelor ThesisMuramatsu Bachelor Thesis
Muramatsu Bachelor Thesis
 
Cvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakiCvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoaki
 
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
 
PoisoningAttackSVM (ICMLreading2012)
PoisoningAttackSVM (ICMLreading2012)PoisoningAttackSVM (ICMLreading2012)
PoisoningAttackSVM (ICMLreading2012)
 
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -
 
20141008物体検出器
20141008物体検出器20141008物体検出器
20141008物体検出器
 
DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
 
Deep Semi-Supervised Anomaly Detection
Deep Semi-Supervised Anomaly DetectionDeep Semi-Supervised Anomaly Detection
Deep Semi-Supervised Anomaly Detection
 
Datamining 5th Knn
Datamining 5th KnnDatamining 5th Knn
Datamining 5th Knn
 
DeepLearningDay2016Summer
DeepLearningDay2016SummerDeepLearningDay2016Summer
DeepLearningDay2016Summer
 
R-CNNの原理とここ数年の流れ
R-CNNの原理とここ数年の流れR-CNNの原理とここ数年の流れ
R-CNNの原理とここ数年の流れ
 
Datamining 5th knn
Datamining 5th knnDatamining 5th knn
Datamining 5th knn
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用
 
物体検知(Meta Study Group 発表資料)
物体検知(Meta Study Group 発表資料)物体検知(Meta Study Group 発表資料)
物体検知(Meta Study Group 発表資料)
 
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
 

Mehr von ぱんいち すみもと (15)

ICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミ
 
Free lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibrationFree lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibration
 
continual learning survey
continual learning surveycontinual learning survey
continual learning survey
 
Contrastive learning 20200607
Contrastive learning 20200607Contrastive learning 20200607
Contrastive learning 20200607
 
Variational denoising network
Variational denoising networkVariational denoising network
Variational denoising network
 
Anomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial NetworksAnomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial Networks
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
最新の異常検知手法(NIPS 2018)
最新の異常検知手法(NIPS 2018)最新の異常検知手法(NIPS 2018)
最新の異常検知手法(NIPS 2018)
 
Dual dl
Dual dlDual dl
Dual dl
 
Categorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmaxCategorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmax
 
Domain transfer サーベイ
Domain transfer サーベイDomain transfer サーベイ
Domain transfer サーベイ
 
Intro VAE
Intro VAEIntro VAE
Intro VAE
 
パンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoderパンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoder
 
PRML 14章
PRML 14章PRML 14章
PRML 14章
 
PRML 9章
PRML 9章PRML 9章
PRML 9章
 

Anomaly detection 系の論文を一言でまとめた

  • 2. そもそも異常とは︖ n 学習しているクラス以外のクラスのこと (Out-of-distribution) n よくある問題設定で,多数の論⽂が存在する n 学習したクラスの物体中のキズやよごれ n データセットが最近までなかった or 問題が難しいため, この異常に関する論⽂は極めて少ない n MVTec AD — A Comprehensive Real-World Dataset for Unsupervised Anomaly Detection (CVPR 2019) n データセット論⽂ 訓練データ テストデータ 正常 異常
  • 3. 学習しているクラス以外のクラスを検知する問題設定は主に2つ n Out-of-distribution detection: 異常を⾒つける n One-class classification: ⼀つのクラスの正常データを利⽤して,それ以外の異常データを検知する n Deep Autoencoding Gaussian Mixture Model for Unsupervised Anomaly Detection (ICLR 2018) n Deep Anomaly Detection Using Geometric Transformations (NIPS 2018) n OCGAN- One-class Novelty Detection Using GANs with Constrained Latent Representations (CVPR 2019) n Multi-class classification: 複数のクラスの正常データを利⽤して,それ以外の異常データを検知する n A Baseline for Detecting Misclassified and Out-of-Distribution Examples in Neural Networks(ICLR 2017) n Enhancing The Reliability of Out-of-distribution Image Detection in Neural Networks(ICLR 2018) n Training Confidence-calibrated Classifiers for Detecting Out-of-Distribution Samples (ICLR 2018) n A Simple Unified Framework for Detecting Out-of-Distribution Samples and Adversarial Attacks (NIPS 2018) n Learning Confidence for Out-of-Distribution Detection in Neural Networks n Predictive Uncertainty Estimation via Prior Networks (NIPS 2018) n Deep Anomaly Detection with Outlier Exposure (ICLR 2019) n Open Set Recognition: 異常を⾒つける ∧ 正常を正しく分類できる n Towards Open Set Deep Networks (CVPR 2016) n Generative OpenMax for Multi-Class Open Set Classification n Open Set Learning with Counterfactual Images (ECCV 2018) n C2AE- Class Conditioned Auto-Encoder for Open-set Recognition (CVPR 2019) n Classification-Reconstruction Learning for Open-Set Recognition (CVPR 2019)
  • 4. Out-of-distribution detectionの問題設定は2つ n One-class classification: ⼀つのクラスの正常クラスのサンプルのみ訓練データとして与え られ,テストデータを異常サンプルかどうかを分類する n Multi-class classification: 複数のクラスの正常クラスのサンプルのみ訓練データとして与え られ,テストデータを異常サンプルかどうかを分類する 訓練データ(すべて正常データ) テストデータ 正常 異常 訓練データ(すべて正常データで⽝カテゴリと⿃カテゴリが存在する) テストデータ 正常 異常⽝ ⿃ 猫
  • 5. One-class classification の主な⽅法は3つ n 再構成したときのロスを使う (PCA, Robust-PCA, deep autoencoders, ADGAN…) n 再構成ベースの⼿法で学習された表現を使う n One Class SVM を⽤いる 異常画像は再構成がうまくいかないはず,というアイデア 再構成画像テスト画像 L2ロス
  • 6. One-class classification の主な⽅法は3つ n 再構成したときのロスを使う n 再構成ベースの⼿法で学習された表現を使う (KDE, Robust-KDE, DSEBM…) n One Class SVM を⽤いる テスト画像 異常画像は潜在空間上で確率密度が⼩さいはず,というアイデア 潜在空間 ・ ・ ・ ・・ ・ ・ ・ ・ ・ ・ ・ ・ ・・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・・ ・ ・ ・ ・ ・ ・
  • 7. One-class classification の主な⽅法は3つ n 再構成したときのロスを使う n 再構成ベースの⼿法で学習された表現を使う n One Class SVM を⽤いる (SVDD, Deep SVDD...) 訓練データができるだけ⼩さい超球内に⼊るような写像を学習し 超球外であれば異常画像である,というアイデア
  • 8. Multi-class classification の主な⽅法 n 識別結果を利⽤する n キャリブレーションの利⽤ n Enhancing The Reliability of Out-of-distribution Image Detection in Neural Networks(ICLR 2018) n A Simple Unified Framework for Detecting Out-of-Distribution Samples and Adversarial Attacks (NIPS 2018) n OODデータの利⽤ n Training Confidence-calibrated Classifiers for Detecting Out-of-Distribution Samples (ICLR 2018) n Deep Anomaly Detection with Outlier Exposure (ICLR 2019) n 不確かさの利⽤ n Predictive Uncertainty Estimation via Prior Networks (NIPS 2018) n Learning Confidence for Out-of-Distribution Detection in Neural Networks ←ソフトマックス層の⼀層前の可視化 識別ロスを利⽤すると,OODは基本的にあいまいな分類結果 となるため,検知ができる
  • 9. Open Set Recognition とは n Open set recognitionとは N+1分類のこと n Nクラスの正常データの分類に加え,テスト時にのみ現れる未知のデータを検知する n ⼿法はMulti-class classificationのものと近いものが多い
  • 10. Opennessの定義と例 n 普通の多クラス分類ではopennessはどんな場合でも0 n 顔認証はテストのときに,訓練データの顔と同じかどうかを判定すればよいのでtarget クラ ス数 = training クラス数となる n 検知は背景の数(negative class)が⾮常に多くなるが,targetの数は⼀つ n Object recognitionは普通の分類に加え,それ以外の物体であることを認識する必要がある
  • 11. Open space riskについて n 多クラス分類のリスク n Open space risk
  • 12. 具体的にいくつか論⽂を紹介する n 学習したクラスの物体中の異常検知 n OOD検知: One-class classification n OOD検知: Multi-class classification n Open Set Recognition
  • 13. 具体的にいくつか論⽂を紹介する n 学習したクラスの物体中の異常検知 n OOD検知: One-class classification n OOD検知: Multi-class classification n Open Set Recognition
  • 14. MVTec AD — A Comprehensive Real-World Dataset for Unsupervised Anomaly Detection (CVPR 2019) n 誰もが待ち望んだデータセット論⽂
  • 16. 具体的にいくつか論⽂を紹介する n 学習したクラスの物体中の異常検知 n OOD検知: One-class classification n OOD検知: Multi-class classification n Open Set Recognition
  • 17. Deep Autoencoding Gaussian Mixture Model for Unsupervised Anomaly Detection (ICLR 2018) n ⼿法: n 次元削減と再構成の情報を利⽤してOODを判定するネットワーク(右図)を提案した n 再構成誤差最⼩化 + GMMの混合⽐をNNで推定してMLEを⾏うことで,E2Eな学習を可能にした n 定性的な実験(左図): n ⾚が異常サンプル,⻘が正常サンプル,縦軸が再構成誤差,横軸が1次元に圧縮したときの値 n 異常サンプルは,低次元で値が異なり,再構成が難しいことがわかる
  • 18. Deep Anomaly Detection Using Geometric Transformations (NIPS 2018) n ⼿法: n 正常な画像なら幾何変換(回転,flipなど)した場合その変換をあてられるはずというアイデア n 幾何変換で条件づけたときの対数尤度を使ったスコアを定義し,スコアが低いものを異常とみなす n 結果: AUROCを使って評価し,OC-SVM, DAGMM, DSEBM, ADGANに⼤きく差をつけてSOTA 𝑇#(𝑥) 𝑇'(𝑥) 𝑇((𝑥) 𝑇)(𝑥) 例えば,訓練時に猫の画像(正常画像)の回転を 学習しても,テスト時に⼊⼒された ⽝の画像(異常画像)の回転はわからないはず ということを利⽤する 詳しくは https://www.slideshare.net/DeepLearningJP2016/ dldeep-anomaly-detection-using-geometric-transformations-138639162
  • 19. OCGAN- One-class Novelty Detection Using GANs with Constrained Latent Representations (CVPR 2019) n ⼿法: 例えば8の画像のみで訓練したモデルが,ほかのクラスの画像もすべて8に再構成する ことによって,元の画像との誤差から異常を検知する n 結果: CIFAR10では既存⼿法よりも若⼲のAUROCの向上 アイデアは⾯⽩いけど 結果は微妙だなあと思った
  • 20. n ⼿法詳細: OCGANは4つの構造が含まれる n Denoising autoencoder: 再構成するため n Latent Discriminator: Adversarial Autoencoderのように,Encoderの出⼒を −1,1 - に近づけることで, 潜在空間を限定する n Visual Discriminator: −1,1 - から⽣成したものがすべて学習データのみのデータになるようにする n Classifier: 再構成したデータを正常,⽣成したデータを異常として学習させた後,Classifierは Decoderが正常データを⽣成するように勾配を伝える
  • 21. 具体的にいくつか論⽂を紹介する n 学習したクラスの物体中の異常検知 n OOD検知: One-class classification n OOD検知: Multi-class classification n Open Set Recognition
  • 22. A Baseline for Detecting Misclassified and Out-of-Distribution Examples in Neural Networks (ICLR 2017) n 貢献 n multi-class classification分類のときの分布外検出の問題設定を提供し,ベースライン⼿法を提案した n 提案⼿法: ソフトマックスの出⼒の最⼤値をOODの指標として使う n アイデア: OODは予測分類が曖昧になるはず n ex) 3クラスのとき,[0.9, 0.05, 0.05]→正常, [0.3, 0.3, 0.4]→異常
  • 23. Enhancing The Reliability of Out-of-distribution Image Detection in Neural Networks(ICLR 2018) n 提案⼿法 n Baseline⼿法の改良(温度ソフトマックスを使う) n 異常データと正常データの境界を広くするための前処理 n 結果: Baselineと⼤きく差を広げてSOTA n ハイパラは検証⽤データ(若⼲のOODデータ)を利⽤してチューニングする
  • 24. A Simple Unified Framework for Detecting Out-of-Distribution Samples and Adversarial Attacks (NIPS 2018) n 提案⼿法: n 訓練分布から離れたところのサンプルを検出できるように,ソフトマックス層の⼀層前の出⼒の分布 を正規分布であることを仮定し,そこからどれだけ離れているかという⽅法でOOD検知を⾏う n さらに,精度向上のため,キャリブレーションと特徴アンサンブルを⾏う n 結果: OOD検知 + 敵対的攻撃でSOTA 詳しくは https://www.slideshare.net/ssuser9eb780/nips-2018-139360134
  • 25. Training Confidence-calibrated Classifiers for Detecting Out-of- Distribution Samples (ICLR 2018) n 提案⼿法 n OODサンプルの予測を⼀様分布に近づけるというキャリブレーションを⾏う n しかし,⼀般にはOODの分布をサンプルをカバーするようなサンプルはとれないので,GANを利 ⽤する(GeneratorのサンプルをOODだと⾒⽴てる) n OODを利⽤した定性的実験 n ⼀般に,下式のKL項を追加すると,分類精度は落ちるが,訓練データ(正常データ)に近い範囲で OODデータを訓練データとして利⽤すれば,精度は落ちない → GANを利⽤する
  • 26. Learning Confidence for Out-of-Distribution Detection in Neural Networks (2018) n 提案⼿法: 分類確率だけでなく,信頼度を出⼒するようなモデルを提案した n ⾃信がないときには本当のyを参照でき,それを答えとすることができる n 参照したときには信頼度が減る n 答えを参照するときにはペナルティがあり,その分ロスが増えるようになる トイデータにおける信頼度のプロット
  • 27. Predictive Uncertainty Estimation via Prior Networks (NIPS 2018) n 提案⼿法: 事前分布のパラメータをNNで推定し,以下の(c)のデータを検知するモデルの提案 n (a): 正常データを正しく予測できるとき(confident) n (b): 正常データだが,どのラベルに属しているかわからないとき(known-unknown) n (c): 異常データ(unknown-unknown) 詳しくは https://www.slideshare.net/DeepLearningJP2016/ dlestimating-predictive-uncertainty-via-prior-networks 𝑥∗ 𝑦∗ 𝛼 𝜇 [0, 1, 0][0.05, 0.9, 0.05] Prior Networks
  • 28. 具体的にいくつか論⽂を紹介する n 学習したクラスの物体中の異常検知 n OOD検知: One-class classification n OOD検知: Multi-class classification n Open Set Recognition
  • 29. Towards Open Set Deep Networks (CVPR 2016) n 深層学習を使ったOSR問題を解こうとした最初の論⽂ n ⼿法 (Openmax): n Activation vector (logit)のクラスごとの平均を利⽤してワイブ ル分布でフィッティングする n AVが与えられたときの割引率ωをもとめ,分布内確率を割り 引くことで,分布外確率を求める n 結果: ILSVRC2012のデータセットを利⽤し,softmaxを 使った⽅法よりも精度向上
  • 30. Open Set Learning with Counterfactual Images (ECCV 2018) n ⼿法: n 訓練データに近い(第⼀項)が,どの訓練データにも属さない(第⼆項)ようなデータをGANで作り出す n Cは分類器で,クラスごとのlogitsのmaxの値が⼩さくなるようにしている n 作ったデータを利⽤して,K+1クラス⽬を予測する新しい分類器を訓練
  • 31. Classification-Reconstruction Learning for Open-Set Recognition (CVPR 2019) n ⼿法: 予測結果とladder networkを使った潜在変 数を利⽤して,OODを検知する
  • 32. C2AE- Class Conditioned Auto-Encoder for Open-set Recognition (CVPR 2019) n ⼿法 n 1: Encoderで正常データを分類できるように学習 n 2: 条件付きAEで再構成が⾏えるように学習 n さらに,実際と異なるクラスの条件を利⽤した再構成を⾏ い,しきい値を決定する n 3: クラス分の条件付き再構成を⾏い,再構成誤差の最⼩ 値がしきい値を下回ったら正常,上回ったら異常とする
  • 33. n 訓練データのみからしきい値τを決めることができることを⽰す図 n 左図: match condition vectorsとnon-match condition vectorsを利⽤したときの再構成誤差のヒストグラム n 右図: 正常データと異常データの再構成誤差のヒストグラム n 結果: 既存⼿法を⼤きく引き離してSOTA