SlideShare ist ein Scribd-Unternehmen logo
1 von 20
距離学習を導入した
二値分類モデルによる異常音検知
☆畔栁 伊吹, 林 知樹, 武田 一哉, 戸田 智基 (名大)
1
2021/09/09
異常音検知とは
2
正常 正常 異常 正常
• 対象から発せられる音が正常なのか異常なのかを識別するタスク
• 工場の製造機器・インフラ設備の保守業務の効率化
• 人の入りにくい場所にある機器の監視
異常音検知システムの活用例
ファクトリーオートメーションをはじめとする
第四次産業革命に期待の技術 [1]
[1] B. Bayram, T. B. Duman, and G. Ince, “Real time detection of acousticanomalies in industrial processes using sequential autoencoders,”ExpertSystems,
vol. 38, no. 1, p. e12564, 202
fan :工場の換気に使用
異常内容:電圧低下, 詰まりe.g.
1. 正常データのみでモデルを構築
2. 蓄積した異常データを活用して性能改善
異常音検知における課題
3
正常 正常 異常 正常
異常の要因
異常音の発生は稀 異常音の種類は多様
初期 :正常データのみ
運用中:正常データと少量の異常データ
異常音検知モデルの構築に利用できるデータ
理想
• ヒューマンエラー
• 不具合
• 環境の変化
• 故障 など
異常データを網羅的に収集することは困難
提案手法の位置づけ
4
[2] L. Van der Maaten and G. Hinton, “Visualizing Data using t-SNE,” Journal of Machine Learning Research, vol. 9, no. 86, pp. 2579–2605, 2008
異常音検知
教師あり 教師なし
生成モデル
• 正常データの確率
分布をモデル化
• 異常データの活用
が容易でない
分類モデル
• 正常データと疑
似異常データの
決定境界を学習
• 異常データの活
用が容易
提案手法の位置づけ
5
[2] L. Van der Maaten and G. Hinton, “Visualizing Data using t-SNE,” Journal of Machine Learning Research, vol. 9, no. 86, pp. 2579–2605, 2008
異常音検知
教師あり 教師なし
生成モデル
• 正常データの確率
分布をモデル化
• 異常データの活用
が容易でない
分類モデル
• 正常データと疑
似異常データの
決定境界を学習
• 異常データの活
用が容易
正例 正常 対象機器の正常な動作音
負例
異常 対象機器の異常な動作音
疑似異常 対象機器以外の正常な動作音
疑似異常
本研究の貢献
6
• DDCSAD損失関数の提案
既存の距離学習を用いた手法の性能
を上回る
• 二値分類と距離学習のマルチタ
スク学習
二値分類とDDCSAD損失関数のマ
ルチタスク学習が最も良い性能
提案手法
従来手法:分類モデルによる手法
7
二値分類に基づく手法 [4] 距離学習に基づく手法 [5]
7
[4] P. Primus, V. Haunschmid, P. Praher, and G. Widmer, “Anomalous Sound Detection as a Simple Binary Classification Problem with Careful Selection of Proxy Outlier Examples,” 2020.
[5] L. Ruff, R. A. et. la., “Deep SemiSupervised Anomaly Detection,” in International Conference on Learning Representations, 2020.
二値分類
距離学習
従来手法:二値分類に基づく手法
8
二値分類に基づく手法 [4]
8
[4] P. Primus, V. Haunschmid, P. Praher, and G. Widmer, “Anomalous Sound Detection as a Simple Binary Classification Problem with Careful Selection of Proxy Outlier Examples,” 2020.
目的:特徴量空間を線形分離
• 学習方法
• 正常データを正例,疑似
異常データを負例として
学習
• 疑似異常データの選択基準
• 録音条件の一致
• 対象音との類似性
• コンテンツの多様性
従来手法:距離学習に基づく手法
9
距離学習に基づく手法 [5]
9
[5] L. Ruff, R. A. et. la., “Deep SemiSupervised Anomaly Detection,” in International Conference on Learning Representations, 2020.
目的:正常クラスの
クラス内分散を最小化
Deep Semi-supervised Anomaly
Detection(DSAD)損失関数
𝐿DSAD =
1
𝑁
෍
𝑖=1
𝑁
𝒛𝒊 − 𝒄 2𝑦
疑似異常
• 正常を重心𝒄に近づける
• 疑似異常を重心𝒄から遠ざける
DDCSAD損失関数の提案
10
10
Deep Double Centroids Semi-
supervised Anomaly Detection
(DDCSAD)損失関数
従来:DSAD損失関数
• クラス間分散を最大化
• 事前学習は必要なし
疑似異常
𝐿DDCSAD
=
1
𝑁
෍
𝑖=1
𝑁
𝒛𝒊 − 𝒄𝒑
2𝑦
+ 𝒛𝒊 − 𝒄𝒏
−2𝑦
• 疑似異常を重心𝒄𝒏に近づける
• 正常を重心𝒄𝒏から遠ざける
Benefit
• 正常データの重心
𝑐𝑝のみ
• 重心は事前学習&
固定
• 疑似異常データの重心𝑐𝑛も定義
• 重心をエポック毎に更新
提案:DDCSAD損失関数
提案手法における損失関数
11
11
提案手法
二値分類
• 特徴量空間を線形分離
距離学習
• クラス内分散を最小化
• クラス間分散を最大化
提案手法
𝐿 = 𝐿BCE + λ𝐿DDCSAD
比較した損失関数
12
損失関数名 損失関数 特徴量空間
を線形分離
クラス内分散
を最小化
クラス間分散
を最大化
BCE 𝑳𝑩𝑪𝑬 〇 ✕ ✕
DSAD 𝑳𝐃𝐒𝐀𝐃 ✕ 〇 ✕
DDCSAD 𝑳𝐃𝐃𝐂𝐒𝐀𝐃 ✕ 〇 〇
BCE+DSAD 𝑳𝑩𝑪𝑬 + 𝝀𝑳𝐃𝐒𝐀𝐃 〇 〇 ✕
BCE+DDCSAD 𝑳𝑩𝑪𝑬 + 𝝀𝑳𝐃𝐃𝐂𝐒𝐀𝐃 〇 〇 〇
• DDCSAD損失関数の有効性
• 二値分類と距離学習のマルチタスク学習の有効性
明らかにしたいこと
実験条件:データセット
• データセット
• DCASE2020 Task2[6]のデータセットを使用
• ToyADMOS [7] : ToyCar, ToyConveyor
• MIMII Dataset [8] : fan, pump, slider, valve
• 合計6種類のマシンタイプ
• 各機器は7から8種類のマシンIDが割り当てられる
13
異物混入, 詰まり, 漏れ,
油不足, 電圧低下, e.g.
[6] Y. Koizumi, et. la., “Description and Discussion on DCASE2020 Challenge Task2: Unsupervised Anomalous Sound Detection for Machine Condition Monitoring,” in arXiv e-prints: 2006.05822, June 2020,
異常例
[7] Y. Koizumi, et. la., “ToyADMOS: A Dataset of Miniature-machine Operating Sounds for Anomalous Sound Detection,” in Proceedings of IEEE Workshop on Applications of Signal
Processing to Audio and Acoustics (WASPAA). IEEE, November 2019, pp. 308–312.
[8] H. Purohit, et. la., “MIMII Dataset: Sound Dataset for Malfunctioning Industrial Machine Investigation and Inspection,” in Proceedings of the Detection and Classification of Acoustic
Scenes and Events 2019 Workshop (DCASE2019), November 2019, pp. 209–213.
http://dcase.community/challenge2020/task-unsupervised-detection-of-anomalous-sounds
実験条件:前提条件
14
学習データへのラベル付け
ラベル 種類 データの種類
正例 正常 対象機器の対象IDの正常データ
負例 疑似異常
対象機器の対象ID以外の正常データ
対象機器以外の正常データ
モデル PANNs [9] のResNet38
[9] Kong, Y. Cao, T. Iqbal, Y. Wang, W. Wang, and M. D. Plumbley, “PANNs: Large-Scale Pretrained Audio Neural Networks for Audio Pattern Recognition,”
IEEE/ACM Transactions on Audio, Speech, and Language Processing, vol. 28, pp. 2880–2894, 2020.
ID毎にモデル
を作成
正常クラス
Fan ID 1
疑似異常クラス
Fan ID 2 Fan ID 3 Valve ID 1
1,000サンプル程度 20,000サンプル程度
Valve ID 2
各手法のAUC [%] による評価
15
提案手法(DDCSAD, BCE+DDCSAD)によって性能改善するか調査
Machine Type BCE DSAD DDCSAD BCE+DSAD BCE+DDCSASD
fan 92.69±2.06 82.33 ± 3.00 91.05 ± 2.25 92.96 ± 2.02 95.14 ± 1.70
pump 94.39±1.88 88.88 ± 2.60 91.71 ± 2.27 89.91 ± 2.49 92.14 ± 2.21
slider 90.30±2.43 93.46 ± 2.01 89.97 ± 2.46 93.38 ± 2.03 97.60 ± 1.24
ToyCar 87.82 ± 1.77 84.10 ± 2.00 91.18 ± 1.51 83.72 ± 2.03 93.85 ± 1.26
ToyConveyor 75.21 ± 2.54 68.51 ± 2.74 68.37 ± 2.74 64.13 ± 2.82 82.05 ± 2.25
valve 89.92 ± 2.45 90.80 ± 2.35 88.62 ± 2.59 98.61 ± 0.94 96.08 ± 1.57
Machine
Average
88.39 84.68 86.82 87.12 92.81
AUC[%]の信頼区間は95% [7]
[7] J. A. Hanley and B. J. McNeil, “The Meaning and Use of the Area Under a Receiver Operating Characteristic (ROC) Curve,” Radiology, vol. 143, no. 1, pp.
29–36, 1982.
距離学習に基づく手法の比較
16
DSAD(従来)とDDCSAD(提案)の比較
Machine Type BCE DSAD DDCSAD BCE+DSAD BCE+DDCSASD
fan 92.69±2.06 82.33 ± 3.00 91.05 ± 2.25 92.96 ± 2.02 95.14 ± 1.70
pump 94.39±1.88 88.88 ± 2.60 91.71 ± 2.27 89.91 ± 2.49 92.14 ± 2.21
slider 90.30±2.43 93.46 ± 2.01 89.97 ± 2.46 93.38 ± 2.03 97.60 ± 1.24
ToyCar 87.82 ± 1.77 84.10 ± 2.00 91.18 ± 1.51 83.72 ± 2.03 93.85 ± 1.26
ToyConveyor 75.21 ± 2.54 68.51 ± 2.74 68.37 ± 2.74 64.13 ± 2.82 82.05 ± 2.25
valve 89.92 ± 2.45 90.80 ± 2.35 88.62 ± 2.59 98.61 ± 0.94 96.08 ± 1.57
Machine
Average
88.39 84.68 86.82 87.12 92.81
正常・疑似異常の重心を定義し,更新可能にする
➡クラス間分散を最大化の効果
AUC[%]の信頼区間は95% [7]
[7] J. A. Hanley and B. J. McNeil, “The Meaning and Use of the Area Under a Receiver Operating Characteristic (ROC) Curve,” Radiology, vol. 143, no. 1, pp.
29–36, 1982.
マルチタスク学習による比較
17
BCE+DSADとBCE+DDCSADの比較
Machine Type BCE DSAD DDCSAD BCE+DSAD BCE+DDCSASD
fan 92.69±2.06 82.33 ± 3.00 91.05 ± 2.25 92.96 ± 2.02 95.14 ± 1.70
pump 94.39±1.88 88.88 ± 2.60 91.71 ± 2.27 89.91 ± 2.49 92.14 ± 2.21
slider 90.30±2.43 93.46 ± 2.01 89.97 ± 2.46 93.38 ± 2.03 97.60 ± 1.24
ToyCar 87.82 ± 1.77 84.10 ± 2.00 91.18 ± 1.51 83.72 ± 2.03 93.85 ± 1.26
ToyConveyor 75.21 ± 2.54 68.51 ± 2.74 68.37 ± 2.74 64.13 ± 2.82 82.05 ± 2.25
valve 89.92 ± 2.45 90.80 ± 2.35 88.62 ± 2.59 98.61 ± 0.94 96.08 ± 1.57
Machine
Average
88.39 84.68 86.82 87.12 92.81
BCE+DDCSADによる効果が大きい
➡疑似異常の重心を定義したことでBCEによる特徴量空間の線形分離が容易に
AUC[%]の信頼区間は95% [7]
[7] J. A. Hanley and B. J. McNeil, “The Meaning and Use of the Area Under a Receiver Operating Characteristic (ROC) Curve,” Radiology, vol. 143, no. 1, pp.
29–36, 1982.
18
単一の損失関数とマルチタスク学習による比較
Machine Type BCE DSAD DDCSAD BCE+DSAD BCE+DDCSASD
fan 92.69±2.06 82.33 ± 3.00 91.05 ± 2.25 92.96 ± 2.02 95.14 ± 1.70
pump 94.39±1.88 88.88 ± 2.60 91.71 ± 2.27 89.91 ± 2.49 92.14 ± 2.21
slider 90.30±2.43 93.46 ± 2.01 89.97 ± 2.46 93.38 ± 2.03 97.60 ± 1.24
ToyCar 87.82 ± 1.77 84.10 ± 2.00 91.18 ± 1.51 83.72 ± 2.03 93.85 ± 1.26
ToyConveyor 75.21 ± 2.54 68.51 ± 2.74 68.37 ± 2.74 64.13 ± 2.82 82.05 ± 2.25
valve 89.92 ± 2.45 90.80 ± 2.35 88.62 ± 2.59 98.61 ± 0.94 96.08 ± 1.57
Machine
Average
88.39 84.68 86.82 87.12 92.81
マルチタスク学習により性能改善
➡仮定に近い特徴量空間への写像を獲得
AUC[%]の信頼区間は95% [7]
[7] J. A. Hanley and B. J. McNeil, “The Meaning and Use of the Area Under a Receiver Operating Characteristic (ROC) Curve,” Radiology, vol. 143, no. 1, pp.
29–36, 1982.
マルチタスク学習による比較
DCASE2021 Task2 [8] の結果
19
ドメインシフトを考慮した、工場機器の状態監視のための
教師無し異常音検知コンペティション
• 新たな機器種別に対しても適応可能
• ドメインシフトのある問題設定でも機能すること
順位
モデルの性能
[8] http://dcase.community/challenge2021/task-unsupervised-detection-of-anomalous-sounds-results
Kuroyanagi, et. la., ”Anomalous Sound Detection Using a
Binary Classification Model and Class Centroids,”
EUSIPCO, 2021
異常データを活用した場合の性能評価
提案手法を用いること
で、27チーム中4位に
まとめ
20
• DDCSAD損失関数の提案
既存の距離学習を用いた手法の性能を上回る
• 二値分類と距離学習のマルチタスク学習
二値分類とDDCSAD損失関数のマルチタスク学習が最も良い性能
今後の課題
• 異なるID間のサンプルが極めて類似している場合でも高い性能が
出せるように改善
• 疑似異常として利用するデータをビックデータの中から定量的に
抽出可能にするメトリックの作成

Weitere ähnliche Inhalte

Was ist angesagt?

Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Yamato OKAMOTO
 
異常音検知の実用化に向けて
異常音検知の実用化に向けて異常音検知の実用化に向けて
異常音検知の実用化に向けてRyohei Yamaguchi
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Kota Matsui
 
データに内在する構造をみるための埋め込み手法
データに内在する構造をみるための埋め込み手法データに内在する構造をみるための埋め込み手法
データに内在する構造をみるための埋め込み手法Tatsuya Shirakawa
 
DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214Kosuke Nakago
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Yoshitaka Ushiku
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII
 
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object DetectionDeep Learning JP
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic DatasetsDeep Learning JP
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep LearningSeiya Tokui
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised LearningまとめDeep Learning JP
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative ModelsDeep Learning JP
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類Shintaro Fukushima
 
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...joisino
 
3次元計測とフィルタリング
3次元計測とフィルタリング3次元計測とフィルタリング
3次元計測とフィルタリングNorishige Fukushima
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and EditingDeep Learning JP
 

Was ist angesagt? (20)

Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
 
異常音検知の実用化に向けて
異常音検知の実用化に向けて異常音検知の実用化に向けて
異常音検知の実用化に向けて
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
 
データに内在する構造をみるための埋め込み手法
データに内在する構造をみるための埋め込み手法データに内在する構造をみるための埋め込み手法
データに内在する構造をみるための埋め込み手法
 
DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
 
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類
 
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
 
3次元計測とフィルタリング
3次元計測とフィルタリング3次元計測とフィルタリング
3次元計測とフィルタリング
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
 

Ähnlich wie 距離学習を導入した二値分類モデルによる異常音検知

インドア測位技術の現況:UWBビジネス元年到来?!
インドア測位技術の現況:UWBビジネス元年到来?!インドア測位技術の現況:UWBビジネス元年到来?!
インドア測位技術の現況:UWBビジネス元年到来?!Kurata Takeshi
 
文献紹介:X3D: Expanding Architectures for Efficient Video Recognition
文献紹介:X3D: Expanding Architectures for Efficient Video Recognition文献紹介:X3D: Expanding Architectures for Efficient Video Recognition
文献紹介:X3D: Expanding Architectures for Efficient Video RecognitionToru Tamaki
 
[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial NetworksDeep Learning JP
 
文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...
文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...
文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...Toru Tamaki
 
伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~
伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~
伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~Shogo Muramatsu
 
文献紹介:Token Shift Transformer for Video Classification
文献紹介:Token Shift Transformer for Video Classification文献紹介:Token Shift Transformer for Video Classification
文献紹介:Token Shift Transformer for Video ClassificationToru Tamaki
 
文献紹介:2D or not 2D? Adaptive 3D Convolution Selection for Efficient Video Reco...
文献紹介:2D or not 2D? Adaptive 3D Convolution Selection for Efficient Video Reco...文献紹介:2D or not 2D? Adaptive 3D Convolution Selection for Efficient Video Reco...
文献紹介:2D or not 2D? Adaptive 3D Convolution Selection for Efficient Video Reco...Toru Tamaki
 
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...Toru Tamaki
 

Ähnlich wie 距離学習を導入した二値分類モデルによる異常音検知 (8)

インドア測位技術の現況:UWBビジネス元年到来?!
インドア測位技術の現況:UWBビジネス元年到来?!インドア測位技術の現況:UWBビジネス元年到来?!
インドア測位技術の現況:UWBビジネス元年到来?!
 
文献紹介:X3D: Expanding Architectures for Efficient Video Recognition
文献紹介:X3D: Expanding Architectures for Efficient Video Recognition文献紹介:X3D: Expanding Architectures for Efficient Video Recognition
文献紹介:X3D: Expanding Architectures for Efficient Video Recognition
 
[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks
 
文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...
文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...
文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...
 
伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~
伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~
伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~
 
文献紹介:Token Shift Transformer for Video Classification
文献紹介:Token Shift Transformer for Video Classification文献紹介:Token Shift Transformer for Video Classification
文献紹介:Token Shift Transformer for Video Classification
 
文献紹介:2D or not 2D? Adaptive 3D Convolution Selection for Efficient Video Reco...
文献紹介:2D or not 2D? Adaptive 3D Convolution Selection for Efficient Video Reco...文献紹介:2D or not 2D? Adaptive 3D Convolution Selection for Efficient Video Reco...
文献紹介:2D or not 2D? Adaptive 3D Convolution Selection for Efficient Video Reco...
 
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
 

Mehr von NU_I_TODALAB

深層生成モデルに基づく音声合成技術
深層生成モデルに基づく音声合成技術深層生成モデルに基づく音声合成技術
深層生成モデルに基づく音声合成技術NU_I_TODALAB
 
信号の独立性に基づく多チャンネル音源分離
信号の独立性に基づく多チャンネル音源分離信号の独立性に基づく多チャンネル音源分離
信号の独立性に基づく多チャンネル音源分離NU_I_TODALAB
 
The VoiceMOS Challenge 2022
The VoiceMOS Challenge 2022The VoiceMOS Challenge 2022
The VoiceMOS Challenge 2022NU_I_TODALAB
 
敵対的学習による統合型ソースフィルタネットワーク
敵対的学習による統合型ソースフィルタネットワーク敵対的学習による統合型ソースフィルタネットワーク
敵対的学習による統合型ソースフィルタネットワークNU_I_TODALAB
 
Investigation of Text-to-Speech based Synthetic Parallel Data for Sequence-to...
Investigation of Text-to-Speech based Synthetic Parallel Data for Sequence-to...Investigation of Text-to-Speech based Synthetic Parallel Data for Sequence-to...
Investigation of Text-to-Speech based Synthetic Parallel Data for Sequence-to...NU_I_TODALAB
 
Interactive voice conversion for augmented speech production
Interactive voice conversion for augmented speech productionInteractive voice conversion for augmented speech production
Interactive voice conversion for augmented speech productionNU_I_TODALAB
 
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクトCREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクトNU_I_TODALAB
 
Recent progress on voice conversion: What is next?
Recent progress on voice conversion: What is next?Recent progress on voice conversion: What is next?
Recent progress on voice conversion: What is next?NU_I_TODALAB
 
Weakly-Supervised Sound Event Detection with Self-Attention
Weakly-Supervised Sound Event Detection with Self-AttentionWeakly-Supervised Sound Event Detection with Self-Attention
Weakly-Supervised Sound Event Detection with Self-AttentionNU_I_TODALAB
 
Statistical voice conversion with direct waveform modeling
Statistical voice conversion with direct waveform modelingStatistical voice conversion with direct waveform modeling
Statistical voice conversion with direct waveform modelingNU_I_TODALAB
 
音素事後確率を利用した表現学習に基づく発話感情認識
音素事後確率を利用した表現学習に基づく発話感情認識音素事後確率を利用した表現学習に基づく発話感情認識
音素事後確率を利用した表現学習に基づく発話感情認識NU_I_TODALAB
 
楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法
楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法
楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法NU_I_TODALAB
 
End-to-End音声認識ためのMulti-Head Decoderネットワーク
End-to-End音声認識ためのMulti-Head DecoderネットワークEnd-to-End音声認識ためのMulti-Head Decoderネットワーク
End-to-End音声認識ためのMulti-Head DecoderネットワークNU_I_TODALAB
 
空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法
空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法
空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法NU_I_TODALAB
 
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元NU_I_TODALAB
 
Hands on Voice Conversion
Hands on Voice ConversionHands on Voice Conversion
Hands on Voice ConversionNU_I_TODALAB
 
Advanced Voice Conversion
Advanced Voice ConversionAdvanced Voice Conversion
Advanced Voice ConversionNU_I_TODALAB
 
Deep Neural Networkに基づく日常生活行動認識における適応手法
Deep Neural Networkに基づく日常生活行動認識における適応手法Deep Neural Networkに基づく日常生活行動認識における適応手法
Deep Neural Networkに基づく日常生活行動認識における適応手法NU_I_TODALAB
 
CTCに基づく音響イベントからの擬音語表現への変換
CTCに基づく音響イベントからの擬音語表現への変換CTCに基づく音響イベントからの擬音語表現への変換
CTCに基づく音響イベントからの擬音語表現への変換NU_I_TODALAB
 
WaveNetが音声合成研究に与える影響
WaveNetが音声合成研究に与える影響WaveNetが音声合成研究に与える影響
WaveNetが音声合成研究に与える影響NU_I_TODALAB
 

Mehr von NU_I_TODALAB (20)

深層生成モデルに基づく音声合成技術
深層生成モデルに基づく音声合成技術深層生成モデルに基づく音声合成技術
深層生成モデルに基づく音声合成技術
 
信号の独立性に基づく多チャンネル音源分離
信号の独立性に基づく多チャンネル音源分離信号の独立性に基づく多チャンネル音源分離
信号の独立性に基づく多チャンネル音源分離
 
The VoiceMOS Challenge 2022
The VoiceMOS Challenge 2022The VoiceMOS Challenge 2022
The VoiceMOS Challenge 2022
 
敵対的学習による統合型ソースフィルタネットワーク
敵対的学習による統合型ソースフィルタネットワーク敵対的学習による統合型ソースフィルタネットワーク
敵対的学習による統合型ソースフィルタネットワーク
 
Investigation of Text-to-Speech based Synthetic Parallel Data for Sequence-to...
Investigation of Text-to-Speech based Synthetic Parallel Data for Sequence-to...Investigation of Text-to-Speech based Synthetic Parallel Data for Sequence-to...
Investigation of Text-to-Speech based Synthetic Parallel Data for Sequence-to...
 
Interactive voice conversion for augmented speech production
Interactive voice conversion for augmented speech productionInteractive voice conversion for augmented speech production
Interactive voice conversion for augmented speech production
 
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクトCREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
 
Recent progress on voice conversion: What is next?
Recent progress on voice conversion: What is next?Recent progress on voice conversion: What is next?
Recent progress on voice conversion: What is next?
 
Weakly-Supervised Sound Event Detection with Self-Attention
Weakly-Supervised Sound Event Detection with Self-AttentionWeakly-Supervised Sound Event Detection with Self-Attention
Weakly-Supervised Sound Event Detection with Self-Attention
 
Statistical voice conversion with direct waveform modeling
Statistical voice conversion with direct waveform modelingStatistical voice conversion with direct waveform modeling
Statistical voice conversion with direct waveform modeling
 
音素事後確率を利用した表現学習に基づく発話感情認識
音素事後確率を利用した表現学習に基づく発話感情認識音素事後確率を利用した表現学習に基づく発話感情認識
音素事後確率を利用した表現学習に基づく発話感情認識
 
楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法
楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法
楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法
 
End-to-End音声認識ためのMulti-Head Decoderネットワーク
End-to-End音声認識ためのMulti-Head DecoderネットワークEnd-to-End音声認識ためのMulti-Head Decoderネットワーク
End-to-End音声認識ためのMulti-Head Decoderネットワーク
 
空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法
空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法
空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法
 
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
 
Hands on Voice Conversion
Hands on Voice ConversionHands on Voice Conversion
Hands on Voice Conversion
 
Advanced Voice Conversion
Advanced Voice ConversionAdvanced Voice Conversion
Advanced Voice Conversion
 
Deep Neural Networkに基づく日常生活行動認識における適応手法
Deep Neural Networkに基づく日常生活行動認識における適応手法Deep Neural Networkに基づく日常生活行動認識における適応手法
Deep Neural Networkに基づく日常生活行動認識における適応手法
 
CTCに基づく音響イベントからの擬音語表現への変換
CTCに基づく音響イベントからの擬音語表現への変換CTCに基づく音響イベントからの擬音語表現への変換
CTCに基づく音響イベントからの擬音語表現への変換
 
WaveNetが音声合成研究に与える影響
WaveNetが音声合成研究に与える影響WaveNetが音声合成研究に与える影響
WaveNetが音声合成研究に与える影響
 

距離学習を導入した二値分類モデルによる異常音検知

  • 2. 異常音検知とは 2 正常 正常 異常 正常 • 対象から発せられる音が正常なのか異常なのかを識別するタスク • 工場の製造機器・インフラ設備の保守業務の効率化 • 人の入りにくい場所にある機器の監視 異常音検知システムの活用例 ファクトリーオートメーションをはじめとする 第四次産業革命に期待の技術 [1] [1] B. Bayram, T. B. Duman, and G. Ince, “Real time detection of acousticanomalies in industrial processes using sequential autoencoders,”ExpertSystems, vol. 38, no. 1, p. e12564, 202 fan :工場の換気に使用 異常内容:電圧低下, 詰まりe.g.
  • 3. 1. 正常データのみでモデルを構築 2. 蓄積した異常データを活用して性能改善 異常音検知における課題 3 正常 正常 異常 正常 異常の要因 異常音の発生は稀 異常音の種類は多様 初期 :正常データのみ 運用中:正常データと少量の異常データ 異常音検知モデルの構築に利用できるデータ 理想 • ヒューマンエラー • 不具合 • 環境の変化 • 故障 など 異常データを網羅的に収集することは困難
  • 4. 提案手法の位置づけ 4 [2] L. Van der Maaten and G. Hinton, “Visualizing Data using t-SNE,” Journal of Machine Learning Research, vol. 9, no. 86, pp. 2579–2605, 2008 異常音検知 教師あり 教師なし 生成モデル • 正常データの確率 分布をモデル化 • 異常データの活用 が容易でない 分類モデル • 正常データと疑 似異常データの 決定境界を学習 • 異常データの活 用が容易
  • 5. 提案手法の位置づけ 5 [2] L. Van der Maaten and G. Hinton, “Visualizing Data using t-SNE,” Journal of Machine Learning Research, vol. 9, no. 86, pp. 2579–2605, 2008 異常音検知 教師あり 教師なし 生成モデル • 正常データの確率 分布をモデル化 • 異常データの活用 が容易でない 分類モデル • 正常データと疑 似異常データの 決定境界を学習 • 異常データの活 用が容易 正例 正常 対象機器の正常な動作音 負例 異常 対象機器の異常な動作音 疑似異常 対象機器以外の正常な動作音 疑似異常
  • 7. 従来手法:分類モデルによる手法 7 二値分類に基づく手法 [4] 距離学習に基づく手法 [5] 7 [4] P. Primus, V. Haunschmid, P. Praher, and G. Widmer, “Anomalous Sound Detection as a Simple Binary Classification Problem with Careful Selection of Proxy Outlier Examples,” 2020. [5] L. Ruff, R. A. et. la., “Deep SemiSupervised Anomaly Detection,” in International Conference on Learning Representations, 2020. 二値分類 距離学習
  • 8. 従来手法:二値分類に基づく手法 8 二値分類に基づく手法 [4] 8 [4] P. Primus, V. Haunschmid, P. Praher, and G. Widmer, “Anomalous Sound Detection as a Simple Binary Classification Problem with Careful Selection of Proxy Outlier Examples,” 2020. 目的:特徴量空間を線形分離 • 学習方法 • 正常データを正例,疑似 異常データを負例として 学習 • 疑似異常データの選択基準 • 録音条件の一致 • 対象音との類似性 • コンテンツの多様性
  • 9. 従来手法:距離学習に基づく手法 9 距離学習に基づく手法 [5] 9 [5] L. Ruff, R. A. et. la., “Deep SemiSupervised Anomaly Detection,” in International Conference on Learning Representations, 2020. 目的:正常クラスの クラス内分散を最小化 Deep Semi-supervised Anomaly Detection(DSAD)損失関数 𝐿DSAD = 1 𝑁 ෍ 𝑖=1 𝑁 𝒛𝒊 − 𝒄 2𝑦 疑似異常 • 正常を重心𝒄に近づける • 疑似異常を重心𝒄から遠ざける
  • 10. DDCSAD損失関数の提案 10 10 Deep Double Centroids Semi- supervised Anomaly Detection (DDCSAD)損失関数 従来:DSAD損失関数 • クラス間分散を最大化 • 事前学習は必要なし 疑似異常 𝐿DDCSAD = 1 𝑁 ෍ 𝑖=1 𝑁 𝒛𝒊 − 𝒄𝒑 2𝑦 + 𝒛𝒊 − 𝒄𝒏 −2𝑦 • 疑似異常を重心𝒄𝒏に近づける • 正常を重心𝒄𝒏から遠ざける Benefit • 正常データの重心 𝑐𝑝のみ • 重心は事前学習& 固定 • 疑似異常データの重心𝑐𝑛も定義 • 重心をエポック毎に更新 提案:DDCSAD損失関数
  • 12. 比較した損失関数 12 損失関数名 損失関数 特徴量空間 を線形分離 クラス内分散 を最小化 クラス間分散 を最大化 BCE 𝑳𝑩𝑪𝑬 〇 ✕ ✕ DSAD 𝑳𝐃𝐒𝐀𝐃 ✕ 〇 ✕ DDCSAD 𝑳𝐃𝐃𝐂𝐒𝐀𝐃 ✕ 〇 〇 BCE+DSAD 𝑳𝑩𝑪𝑬 + 𝝀𝑳𝐃𝐒𝐀𝐃 〇 〇 ✕ BCE+DDCSAD 𝑳𝑩𝑪𝑬 + 𝝀𝑳𝐃𝐃𝐂𝐒𝐀𝐃 〇 〇 〇 • DDCSAD損失関数の有効性 • 二値分類と距離学習のマルチタスク学習の有効性 明らかにしたいこと
  • 13. 実験条件:データセット • データセット • DCASE2020 Task2[6]のデータセットを使用 • ToyADMOS [7] : ToyCar, ToyConveyor • MIMII Dataset [8] : fan, pump, slider, valve • 合計6種類のマシンタイプ • 各機器は7から8種類のマシンIDが割り当てられる 13 異物混入, 詰まり, 漏れ, 油不足, 電圧低下, e.g. [6] Y. Koizumi, et. la., “Description and Discussion on DCASE2020 Challenge Task2: Unsupervised Anomalous Sound Detection for Machine Condition Monitoring,” in arXiv e-prints: 2006.05822, June 2020, 異常例 [7] Y. Koizumi, et. la., “ToyADMOS: A Dataset of Miniature-machine Operating Sounds for Anomalous Sound Detection,” in Proceedings of IEEE Workshop on Applications of Signal Processing to Audio and Acoustics (WASPAA). IEEE, November 2019, pp. 308–312. [8] H. Purohit, et. la., “MIMII Dataset: Sound Dataset for Malfunctioning Industrial Machine Investigation and Inspection,” in Proceedings of the Detection and Classification of Acoustic Scenes and Events 2019 Workshop (DCASE2019), November 2019, pp. 209–213. http://dcase.community/challenge2020/task-unsupervised-detection-of-anomalous-sounds
  • 14. 実験条件:前提条件 14 学習データへのラベル付け ラベル 種類 データの種類 正例 正常 対象機器の対象IDの正常データ 負例 疑似異常 対象機器の対象ID以外の正常データ 対象機器以外の正常データ モデル PANNs [9] のResNet38 [9] Kong, Y. Cao, T. Iqbal, Y. Wang, W. Wang, and M. D. Plumbley, “PANNs: Large-Scale Pretrained Audio Neural Networks for Audio Pattern Recognition,” IEEE/ACM Transactions on Audio, Speech, and Language Processing, vol. 28, pp. 2880–2894, 2020. ID毎にモデル を作成 正常クラス Fan ID 1 疑似異常クラス Fan ID 2 Fan ID 3 Valve ID 1 1,000サンプル程度 20,000サンプル程度 Valve ID 2
  • 15. 各手法のAUC [%] による評価 15 提案手法(DDCSAD, BCE+DDCSAD)によって性能改善するか調査 Machine Type BCE DSAD DDCSAD BCE+DSAD BCE+DDCSASD fan 92.69±2.06 82.33 ± 3.00 91.05 ± 2.25 92.96 ± 2.02 95.14 ± 1.70 pump 94.39±1.88 88.88 ± 2.60 91.71 ± 2.27 89.91 ± 2.49 92.14 ± 2.21 slider 90.30±2.43 93.46 ± 2.01 89.97 ± 2.46 93.38 ± 2.03 97.60 ± 1.24 ToyCar 87.82 ± 1.77 84.10 ± 2.00 91.18 ± 1.51 83.72 ± 2.03 93.85 ± 1.26 ToyConveyor 75.21 ± 2.54 68.51 ± 2.74 68.37 ± 2.74 64.13 ± 2.82 82.05 ± 2.25 valve 89.92 ± 2.45 90.80 ± 2.35 88.62 ± 2.59 98.61 ± 0.94 96.08 ± 1.57 Machine Average 88.39 84.68 86.82 87.12 92.81 AUC[%]の信頼区間は95% [7] [7] J. A. Hanley and B. J. McNeil, “The Meaning and Use of the Area Under a Receiver Operating Characteristic (ROC) Curve,” Radiology, vol. 143, no. 1, pp. 29–36, 1982.
  • 16. 距離学習に基づく手法の比較 16 DSAD(従来)とDDCSAD(提案)の比較 Machine Type BCE DSAD DDCSAD BCE+DSAD BCE+DDCSASD fan 92.69±2.06 82.33 ± 3.00 91.05 ± 2.25 92.96 ± 2.02 95.14 ± 1.70 pump 94.39±1.88 88.88 ± 2.60 91.71 ± 2.27 89.91 ± 2.49 92.14 ± 2.21 slider 90.30±2.43 93.46 ± 2.01 89.97 ± 2.46 93.38 ± 2.03 97.60 ± 1.24 ToyCar 87.82 ± 1.77 84.10 ± 2.00 91.18 ± 1.51 83.72 ± 2.03 93.85 ± 1.26 ToyConveyor 75.21 ± 2.54 68.51 ± 2.74 68.37 ± 2.74 64.13 ± 2.82 82.05 ± 2.25 valve 89.92 ± 2.45 90.80 ± 2.35 88.62 ± 2.59 98.61 ± 0.94 96.08 ± 1.57 Machine Average 88.39 84.68 86.82 87.12 92.81 正常・疑似異常の重心を定義し,更新可能にする ➡クラス間分散を最大化の効果 AUC[%]の信頼区間は95% [7] [7] J. A. Hanley and B. J. McNeil, “The Meaning and Use of the Area Under a Receiver Operating Characteristic (ROC) Curve,” Radiology, vol. 143, no. 1, pp. 29–36, 1982.
  • 17. マルチタスク学習による比較 17 BCE+DSADとBCE+DDCSADの比較 Machine Type BCE DSAD DDCSAD BCE+DSAD BCE+DDCSASD fan 92.69±2.06 82.33 ± 3.00 91.05 ± 2.25 92.96 ± 2.02 95.14 ± 1.70 pump 94.39±1.88 88.88 ± 2.60 91.71 ± 2.27 89.91 ± 2.49 92.14 ± 2.21 slider 90.30±2.43 93.46 ± 2.01 89.97 ± 2.46 93.38 ± 2.03 97.60 ± 1.24 ToyCar 87.82 ± 1.77 84.10 ± 2.00 91.18 ± 1.51 83.72 ± 2.03 93.85 ± 1.26 ToyConveyor 75.21 ± 2.54 68.51 ± 2.74 68.37 ± 2.74 64.13 ± 2.82 82.05 ± 2.25 valve 89.92 ± 2.45 90.80 ± 2.35 88.62 ± 2.59 98.61 ± 0.94 96.08 ± 1.57 Machine Average 88.39 84.68 86.82 87.12 92.81 BCE+DDCSADによる効果が大きい ➡疑似異常の重心を定義したことでBCEによる特徴量空間の線形分離が容易に AUC[%]の信頼区間は95% [7] [7] J. A. Hanley and B. J. McNeil, “The Meaning and Use of the Area Under a Receiver Operating Characteristic (ROC) Curve,” Radiology, vol. 143, no. 1, pp. 29–36, 1982.
  • 18. 18 単一の損失関数とマルチタスク学習による比較 Machine Type BCE DSAD DDCSAD BCE+DSAD BCE+DDCSASD fan 92.69±2.06 82.33 ± 3.00 91.05 ± 2.25 92.96 ± 2.02 95.14 ± 1.70 pump 94.39±1.88 88.88 ± 2.60 91.71 ± 2.27 89.91 ± 2.49 92.14 ± 2.21 slider 90.30±2.43 93.46 ± 2.01 89.97 ± 2.46 93.38 ± 2.03 97.60 ± 1.24 ToyCar 87.82 ± 1.77 84.10 ± 2.00 91.18 ± 1.51 83.72 ± 2.03 93.85 ± 1.26 ToyConveyor 75.21 ± 2.54 68.51 ± 2.74 68.37 ± 2.74 64.13 ± 2.82 82.05 ± 2.25 valve 89.92 ± 2.45 90.80 ± 2.35 88.62 ± 2.59 98.61 ± 0.94 96.08 ± 1.57 Machine Average 88.39 84.68 86.82 87.12 92.81 マルチタスク学習により性能改善 ➡仮定に近い特徴量空間への写像を獲得 AUC[%]の信頼区間は95% [7] [7] J. A. Hanley and B. J. McNeil, “The Meaning and Use of the Area Under a Receiver Operating Characteristic (ROC) Curve,” Radiology, vol. 143, no. 1, pp. 29–36, 1982. マルチタスク学習による比較
  • 19. DCASE2021 Task2 [8] の結果 19 ドメインシフトを考慮した、工場機器の状態監視のための 教師無し異常音検知コンペティション • 新たな機器種別に対しても適応可能 • ドメインシフトのある問題設定でも機能すること 順位 モデルの性能 [8] http://dcase.community/challenge2021/task-unsupervised-detection-of-anomalous-sounds-results Kuroyanagi, et. la., ”Anomalous Sound Detection Using a Binary Classification Model and Class Centroids,” EUSIPCO, 2021 異常データを活用した場合の性能評価 提案手法を用いること で、27チーム中4位に
  • 20. まとめ 20 • DDCSAD損失関数の提案 既存の距離学習を用いた手法の性能を上回る • 二値分類と距離学習のマルチタスク学習 二値分類とDDCSAD損失関数のマルチタスク学習が最も良い性能 今後の課題 • 異なるID間のサンプルが極めて類似している場合でも高い性能が 出せるように改善 • 疑似異常として利用するデータをビックデータの中から定量的に 抽出可能にするメトリックの作成