SlideShare ist ein Scribd-Unternehmen logo
1 von 66
Downloaden Sie, um offline zu lesen
Chapter 6: Support Vector Data Description
機械学習プロフェッショナルシリーズ輪読会
~異常検知と変化検知~
佐野 正太郎
やりたいこと
訓練データ
(ラベルなし)
やりたいこと
訓練データ
(ラベルなし)
円で囲む
正常
異常
トピック
 Lagrange Method
 凸最適化問題を簡単な問題へと変換
 Support Vector Data Description (SVDD)
 正常・異常を分離する円形境界の決定
 Kernel Trick
 柔軟かつ高速な境界の計算
Lagrange Method
問題設定:凸最適化問題
 目的関数
 制約条件
)}({minimize xf
x
),...,1(0)( Jjhj x
),...,1(0)( Iigi x
凸関数
凸関数
線形関数
ラグランジュ関数
 以下の関数を作ってみる
 

J
j
jj
I
i
ii hgfL
11
)()()(),,( xxxμλx 
0,0where  ji 
目的関数 不等式制約 等式制約
ラグランジュ関数
 以下の関数を作ってみる
 このとき
 

J
j
jj
I
i
ii hgfL
11
)()()(),,( xxxμλx 
0,0where  ji 
目的関数 不等式制約 等式制約
)(),,( xμλx fL 
弱双対性
 ラグランジュ関数の下限は目的関数より常に小さい
)(),,(),,(min xμλxμλx
x
fLL 
弱双対性
 ラグランジュ関数の下限は目的関数より常に小さい
 よって主問題の最小値(最適解)より小さい
)(),,(),,(min xμλxμλx
x
fLL 
)(),,(min *
xμλx
x
fL 
弱双対性
 ラグランジュ関数の下限は目的関数より常に小さい
 よって主問題の最小値(最適解)より小さい
)(),,(),,(min xμλxμλx
x
fLL 
),( μλg
下限はλとμの関数
)(),,(min *
xμλx
x
fL 
弱双対性
 ラグランジュ関数の下限は目的関数より常に小さい
 よって主問題の最小値(最適解)より小さい
)(),,(),,(min xμλxμλx
x
fLL 
),( μλg
左側から大きくしていくと
f(x)の最適解に近づく
)(),,(min *
xμλx
x
fL 
弱双対性
 ラグランジュ関数の下限は目的関数より常に小さい
 よって主問題の最小値(最適解)より小さい
 の最大化問題を双対問題と呼ぶ
)(),,(),,(min xμλxμλx
x
fLL 
),( μλg )(),,(min *
xμλx
x
fL 
),( μλg
強双対性
 強双対:双対問題の最大値が主問題の最小値と一致
 凸最適化問題では強双対性が成立する
 厳密には凸最適化問題かつSlater条件を満たす場合
)(),( ***
xμλ fg 
強双対性
 強双対:双対問題の最大値が主問題の最小値と一致
 凸最適化問題では強双対性が成立する
 厳密には凸最適化問題かつSlater条件を満たす場合
)(),( ***
xμλ fg 
強双対性が成立する場合
主問題の代わりに双対問題を最適化する
ラグランジュ法
ラグランジュ法の流れ
 主問題を双対問題に変換
 ラグランジュ関数を作成
 ラグランジュ関数の主問題変数に関する下限を計算
 ラグランジュ関数を主問題変数で偏微分
 偏微分が0になる条件を計算
 条件をラグランジュ関数に再代入
 双対問題をラグランジュ乗数について最適化
 双対問題の最適解から主問題の解を計算
KKT条件:最適解における必要十分条件
0)(,0)(  xx ji hg
0,0  ji 
0)( xii g
0
),,(



x
μλxL
KKT条件:最適解における必要十分条件
が主問題の最適解
と が双対問題の最適解
0)(,0)(  xx ji hg
0,0  ji 
0)( xii g
0
),,(



x
μλxL
強双対の場合
凸最適化の場合
x
λ μ
KKT条件:最適解における必要十分条件
不等式制約関数か
ラグランジュ乗数の
どちらかはゼロ
(スラック相補性)
0)( xii g
Support Vector Data Description
やりたいこと
訓練データ
(ラベルなし)
円で囲む
問題の定式化
 標本集合を囲むできるだけ小さな円を求める
 i.e., 円の中心座標 と半径 を求める
R
Rb
b
問題の定式化
 標本集合を囲むできるだけ小さな円を求める
 i.e., 円の中心座標 と半径 を求める
 多少円の外に出る標本があっても OK !
 i.e., 各データの遊び を求める(円内では )
R
遊び
R
b
b
nu 0nu
問題の定式化
 目的関数
 制約条件
線形関数
(凸関数)
凸関数
線形関数
(凸関数)
Rb
RuR n 2
}{minimize
1
)(2
,,2 

N
n
n
R
uCR
ub
0
22
 bxnnuR
0)(
n
u
問題の定式化
 目的関数
 制約条件
線形関数
(凸関数)
凸関数
線形関数
(凸関数)
Rb
RuR n 2
}{minimize
1
)(2
,,2 

N
n
n
R
uCR
ub
0
22
 bxnnuR
0)(
n
u
凸最適化問題
ラグランジュ法の出番
ラグランジュ法の流れ
 主問題を双対問題に変換
 ラグランジュ関数を作成
 ラグランジュ関数の主問題変数に関する下限を計算
 ラグランジュ関数を主問題変数で偏微分
 偏微分が0になる条件を計算
 条件をラグランジュ関数に再代入
 双対問題をラグランジュ乗数について最適化
 双対問題の最適解から主問題の解を計算
問題の変換:ラグランジュ関数
0,0where  nn 


N
n
n
uCRL
1
)(2
),,,,( ubR2


N
n
n
n
n xuR
1
2)(2
}{ b


N
n
n
nu
1
)(

目的関数
制約条件
制約条件
問題の変換:ラグランジュ関数の微分
01
1
2




N
n
n
R
L

0)(



nnn
C
u
L

022
1 1
)(



  
N
n
N
n
n
nn xb
b
L

ラグランジュ関数に再代入
問題の変換:双対問題の導出
 ラグランジュ関数の下限
),,,,(min),( 2
,,2
βαubβα
ub
RLg
R

 

N
n
n
T
nnn
N
n
n
T
nn
1
''
1
xxxx 
問題の変換:双対問題の導出
 ラグランジュ関数の下限
 制約条件
),,,,(min),( 2
,,2
βαubβα
ub
RLg
R

 

N
n
n
T
nnn
N
n
n
T
nn
1
''
1
xxxx 
n0
n0
問題の変換:双対問題の導出
 ラグランジュ関数の下限
 制約条件
),,,,(min),( 2
,,2
βαubβα
ub
RLg
R

 

N
n
n
T
nnn
N
n
n
T
nn
1
''
1
xxxx 
n0
n0
ラグランジュ関数の微分結果から
0)(



nnn
C
u
L

問題の変換:双対問題の導出
 ラグランジュ関数の下限
 制約条件
),,,,(min),( 2
,,2
βαubβα
ub
RLg
R

 

N
n
n
T
nnn
N
n
n
T
nn
1
''
1
xxxx 
Cn 0
ラグランジュ法の流れ
 主問題を双対問題に変換
 ラグランジュ関数を作成
 ラグランジュ関数の主問題変数に関する下限を計算
 ラグランジュ関数を主問題変数で偏微分
 偏微分が0になる条件を計算
 条件をラグランジュ関数に再代入
 双対問題をラグランジュ乗数について最適化
 双対問題の最適解から主問題の解を計算
双対問題
 目的関数
 制約条件
}{
1
''
1
maximize  

N
n
n
T
nnn
N
n
n
T
nn xxxx
α

Cn  0
ラグランジュ乗数の二次式
線形制約
双対問題
 目的関数
 制約条件
}{
1
''
1
maximize  

N
n
n
T
nnn
N
n
n
T
nn xxxx
α

Cn  0
ラグランジュ乗数の二次式
線形制約
二次計画問題
SMO法 / 双対座標降下法
ラグランジュ法の流れ
 主問題を双対問題に変換
 ラグランジュ関数を作成
 ラグランジュ関数の主問題変数に関する下限を計算
 ラグランジュ関数を主問題変数で偏微分
 偏微分が0になる条件を計算
 条件をラグランジュ関数に再代入
 双対問題をラグランジュ乗数について最適化
 双対問題の最適解から主問題の解を計算
 ラグランジュ関数の微分結果より
 よって円の中心座標
KKT条件と主問題の解(中心座標)


N
n
nn
1
**
xb 
01
1
2




N
n
n
R
L

022
11



 
N
n
nn
N
n
n
L
xb
b

KKT条件と主問題の解(半径)
 KKT条件のスラック相補性より
0}{
2*2*
 bxnnn uR
0nun
KKT条件と主問題の解(半径)
 KKT条件のスラック相補性より
0}{
2*2*
 bxnnn uR
0nun
ラグランジュ関数の微分結果から
0)(



nnn
C
u
L

KKT条件と主問題の解(半径)
 KKT条件のスラック相補性より
0nu)( *
nC 
0}{
2*2*
 bxnnn uR
KKT条件と主問題の解(半径)
 KKT条件のスラック相補性より
 を満たす について
0nu)( *
nC 
Cn  *
0 
2*2
bx  nR
nx
0}{
2*2*
 bxnnn uR
KKT条件と主問題の解(半径)
 KKT条件のスラック相補性より
 を満たす について
0nu)( *
nC 
が円周上に乗ってる
(サポートベクトル)
nx
0}{
2*2*
 bxnnn uR
Cn  *
0 
2*2
bx  nR
nx
異常度の計算
 円から逸脱してる長さで定義
22
)( Ra  bxx
実験:正規分布からの学習
 平均 / 分散 の正規分布からサンプル生成)2,2( 1
実験:正規分布からの学習
 平均 / 分散 の正規分布からサンプル生成)2,2( 1
C=1.0
実験:正規分布からの学習
 平均 / 分散 の正規分布からサンプル生成
C=0.01C=0.1
)2,2( 1
Kernel Trick
やりたいこと
 単一の円で囲むと困る場合
 e.g., サンプルが複数のクラスタ上に分布してる
 e.g., 円形の分布になってない
 もっと柔軟に境界を決めたい
解決策:非線形写像による境界決定
d次元空間
解決策:非線形写像による境界決定
x
)(x
d次元空間
d’次元空間
適当な非線形写像
解決策:非線形写像による境界決定
d’次元空間
こっちで境界決定
d次元空間
解決策:非線形写像による境界決定
d次元空間
d’次元空間
元の空間に戻すと
所望の分離になってる
カーネルトリック
 実装上で写像計算が必要なところ
 二次計画問題の定義
 半径の計算
 異常度の計算
})()()()({
1
''
1
maximize  

N
n
n
T
nnn
N
n
n
T
nn xxxx
α

  

N
nn
N
n
n
T
nn
T
nnn
T
R
1 1
sup
***
supsup
2
2,1
2121
)()(2)()()()( xxxxxx 
  

N
nn
N
n
n
T
nn
T
nnn Ra
1
2
1
***T
2,1
2121
)()(2)()()()()( xxxxxxx 
カーネルトリック
 実装上で写像計算が必要なところ
 二次計画問題の定義
 半径の計算
 異常度の計算
})()()()({
1
''
1
maximize  

N
n
n
T
nnn
N
n
n
T
nn xxxx
α

  

N
nn
N
n
n
T
nn
T
nnn
T
R
1 1
sup
***
supsup
2
2,1
2121
)()(2)()()()( xxxxxx 
  

N
nn
N
n
n
T
nn
T
nnn Ra
1
2
1
***T
2,1
2121
)()(2)()()()()( xxxxxxx 
カーネルトリック
 写像計算せずに写像後の内積計算だけする
 全ての内積計算を内積カーネルで置き換える
 写像計算のコストを削減
 RBFカーネルで無限次元への写像も可能
)()(),( yxyx  T
K
内積カーネル
RBFカーネル
 内積カーネルの定義
 無限次元上で内積計算をしてることになる
}exp{),(
2
yxyx  K






0
222
)exp(
!
)2(
)exp(}exp{
j
jT
j
y
yx
xyx 


実験:混合正規分布からの学習
 線形カーネルの場合
 RBFカーネルの場合
実験:混合正規分布からの学習
C=0.1 , σ=0.5C=0.01, σ=0.5
 RBFカーネルの場合
実験:混合正規分布からの学習
C=0.01 , σ=0.01C=0.01, σ=0.1
Thank you!

Weitere ähnliche Inhalte

Was ist angesagt?

Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルohken
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章Hakky St
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAGIRobots
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたぱんいち すみもと
 
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会Kenyu Uehara
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向ohken
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333Issei Kurahashi
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定Akira Masuda
 
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Satoshi Kato
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理Taiji Suzuki
 
[DL輪読会]DIVERSE TRAJECTORY FORECASTING WITH DETERMINANTAL POINT PROCESSES
[DL輪読会]DIVERSE TRAJECTORY FORECASTING WITH DETERMINANTAL POINT PROCESSES[DL輪読会]DIVERSE TRAJECTORY FORECASTING WITH DETERMINANTAL POINT PROCESSES
[DL輪読会]DIVERSE TRAJECTORY FORECASTING WITH DETERMINANTAL POINT PROCESSESDeep Learning JP
 
Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究Fumihiko Takahashi
 
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門  6. 最適化と学習アルゴリズムクラシックな機械学習の入門  6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズムHiroshi Nakagawa
 

Was ist angesagt? (20)

正準相関分析
正準相関分析正準相関分析
正準相関分析
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
 
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
 
ELBO型VAEのダメなところ
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところ
 
機械学習と主成分分析
機械学習と主成分分析機械学習と主成分分析
機械学習と主成分分析
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
[DL輪読会]DIVERSE TRAJECTORY FORECASTING WITH DETERMINANTAL POINT PROCESSES
[DL輪読会]DIVERSE TRAJECTORY FORECASTING WITH DETERMINANTAL POINT PROCESSES[DL輪読会]DIVERSE TRAJECTORY FORECASTING WITH DETERMINANTAL POINT PROCESSES
[DL輪読会]DIVERSE TRAJECTORY FORECASTING WITH DETERMINANTAL POINT PROCESSES
 
Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究
 
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門  6. 最適化と学習アルゴリズムクラシックな機械学習の入門  6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
 

Andere mochten auch

ディリクレ過程に基づく無限混合線形回帰モデル in 機械学習プロフェッショナルシリーズ輪読会
ディリクレ過程に基づく無限混合線形回帰モデル in 機械学習プロフェッショナルシリーズ輪読会ディリクレ過程に基づく無限混合線形回帰モデル in 機械学習プロフェッショナルシリーズ輪読会
ディリクレ過程に基づく無限混合線形回帰モデル in 機械学習プロフェッショナルシリーズ輪読会Shotaro Sano
 
異常検知と変化検知 7章方向データの異常検知
異常検知と変化検知 7章方向データの異常検知異常検知と変化検知 7章方向データの異常検知
異常検知と変化検知 7章方向データの異常検知智文 中野
 
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだことnishio
 
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知  #ml-professional単純ベイズ法による異常検知  #ml-professional
単純ベイズ法による異常検知 #ml-professionalAi Makabi
 
Chapter 01 #ml-professional
Chapter 01 #ml-professionalChapter 01 #ml-professional
Chapter 01 #ml-professionalAi Makabi
 
Anomaly detection char10
Anomaly detection char10Anomaly detection char10
Anomaly detection char10natsup
 
Microsoft Malware Classification Challenge 上位手法の紹介 (in Kaggle Study Meetup)
Microsoft Malware Classification Challenge 上位手法の紹介 (in Kaggle Study Meetup)Microsoft Malware Classification Challenge 上位手法の紹介 (in Kaggle Study Meetup)
Microsoft Malware Classification Challenge 上位手法の紹介 (in Kaggle Study Meetup)Shotaro Sano
 
Chapter 02 #ml-professional
Chapter 02  #ml-professionalChapter 02  #ml-professional
Chapter 02 #ml-professionalAi Makabi
 
離散時間ロジスティック回帰モデル解説
離散時間ロジスティック回帰モデル解説離散時間ロジスティック回帰モデル解説
離散時間ロジスティック回帰モデル解説akira_11
 
R実践 機械学習による異常検知 02
R実践 機械学習による異常検知 02R実践 機械学習による異常検知 02
R実践 機械学習による異常検知 02akira_11
 
FIT2012招待講演「異常検知技術のビジネス応用最前線」
FIT2012招待講演「異常検知技術のビジネス応用最前線」FIT2012招待講演「異常検知技術のビジネス応用最前線」
FIT2012招待講演「異常検知技術のビジネス応用最前線」Shohei Hido
 
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~Yasutomo Kawanishi
 
実戦投入する機械学習
実戦投入する機械学習実戦投入する機械学習
実戦投入する機械学習Takahiro Kubo
 
「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11Minoru Chikamune
 
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京Koichi Hamada
 
機械学習の理論と実践
機械学習の理論と実践機械学習の理論と実践
機械学習の理論と実践Preferred Networks
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話Ryota Kamoshida
 
「続・わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )
「続・わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )「続・わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )
「続・わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )aich_08_
 

Andere mochten auch (20)

ディリクレ過程に基づく無限混合線形回帰モデル in 機械学習プロフェッショナルシリーズ輪読会
ディリクレ過程に基づく無限混合線形回帰モデル in 機械学習プロフェッショナルシリーズ輪読会ディリクレ過程に基づく無限混合線形回帰モデル in 機械学習プロフェッショナルシリーズ輪読会
ディリクレ過程に基づく無限混合線形回帰モデル in 機械学習プロフェッショナルシリーズ輪読会
 
異常検知と変化検知 7章方向データの異常検知
異常検知と変化検知 7章方向データの異常検知異常検知と変化検知 7章方向データの異常検知
異常検知と変化検知 7章方向データの異常検知
 
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
 
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知  #ml-professional単純ベイズ法による異常検知  #ml-professional
単純ベイズ法による異常検知 #ml-professional
 
Chapter 01 #ml-professional
Chapter 01 #ml-professionalChapter 01 #ml-professional
Chapter 01 #ml-professional
 
Anomaly detection char10
Anomaly detection char10Anomaly detection char10
Anomaly detection char10
 
Microsoft Malware Classification Challenge 上位手法の紹介 (in Kaggle Study Meetup)
Microsoft Malware Classification Challenge 上位手法の紹介 (in Kaggle Study Meetup)Microsoft Malware Classification Challenge 上位手法の紹介 (in Kaggle Study Meetup)
Microsoft Malware Classification Challenge 上位手法の紹介 (in Kaggle Study Meetup)
 
Chapter 02 #ml-professional
Chapter 02  #ml-professionalChapter 02  #ml-professional
Chapter 02 #ml-professional
 
離散時間ロジスティック回帰モデル解説
離散時間ロジスティック回帰モデル解説離散時間ロジスティック回帰モデル解説
離散時間ロジスティック回帰モデル解説
 
R実践 機械学習による異常検知 02
R実践 機械学習による異常検知 02R実践 機械学習による異常検知 02
R実践 機械学習による異常検知 02
 
FIT2012招待講演「異常検知技術のビジネス応用最前線」
FIT2012招待講演「異常検知技術のビジネス応用最前線」FIT2012招待講演「異常検知技術のビジネス応用最前線」
FIT2012招待講演「異常検知技術のビジネス応用最前線」
 
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
 
実戦投入する機械学習
実戦投入する機械学習実戦投入する機械学習
実戦投入する機械学習
 
「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11
 
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
 
機械学習の理論と実践
機械学習の理論と実践機械学習の理論と実践
機械学習の理論と実践
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話
 
Ddos
DdosDdos
Ddos
 
NW_#secccamp
NW_#secccampNW_#secccamp
NW_#secccamp
 
「続・わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )
「続・わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )「続・わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )
「続・わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )
 

Ähnlich wie サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会

東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2hirokazutanaka
 
Or seminar2011final
Or seminar2011finalOr seminar2011final
Or seminar2011finalMikio Kubo
 
クラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンクラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンHiroshi Nakagawa
 
Jokyonokai130531
Jokyonokai130531Jokyonokai130531
Jokyonokai130531nwpmq516
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1hirokazutanaka
 
はじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシンはじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシンNobuyukiTakayasu
 
はじめてのパターン認識8章 サポートベクトルマシン
はじめてのパターン認識8章 サポートベクトルマシンはじめてのパターン認識8章 サポートベクトルマシン
はじめてのパターン認識8章 サポートベクトルマシンNobuyukiTakayasu
 
Quantum Support Vector Machine
Quantum Support Vector MachineQuantum Support Vector Machine
Quantum Support Vector MachineYuma Nakamura
 
自然言語処理のための機械学習入門1章
自然言語処理のための機械学習入門1章自然言語処理のための機械学習入門1章
自然言語処理のための機械学習入門1章Hiroki Mizukami
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係についてDeep Learning JP
 
正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)Eric Sartre
 
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1hirokazutanaka
 
Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5KazuhiroSato8
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)Yukara Ikemiya
 
ディープラーニング基礎.pptx
ディープラーニング基礎.pptxディープラーニング基礎.pptx
ディープラーニング基礎.pptxnorimatsu5
 

Ähnlich wie サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会 (20)

1次式とノルムで構成された最適化問題とその双対問題
1次式とノルムで構成された最適化問題とその双対問題1次式とノルムで構成された最適化問題とその双対問題
1次式とノルムで構成された最適化問題とその双対問題
 
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
 
Or seminar2011final
Or seminar2011finalOr seminar2011final
Or seminar2011final
 
クラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンクラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシン
 
JSME研究会プレゼン資料
JSME研究会プレゼン資料JSME研究会プレゼン資料
JSME研究会プレゼン資料
 
PRML5
PRML5PRML5
PRML5
 
Jokyonokai130531
Jokyonokai130531Jokyonokai130531
Jokyonokai130531
 
Gurobi python
Gurobi pythonGurobi python
Gurobi python
 
W8PRML5.1-5.3
W8PRML5.1-5.3W8PRML5.1-5.3
W8PRML5.1-5.3
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
 
はじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシンはじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシン
 
はじめてのパターン認識8章 サポートベクトルマシン
はじめてのパターン認識8章 サポートベクトルマシンはじめてのパターン認識8章 サポートベクトルマシン
はじめてのパターン認識8章 サポートベクトルマシン
 
Quantum Support Vector Machine
Quantum Support Vector MachineQuantum Support Vector Machine
Quantum Support Vector Machine
 
自然言語処理のための機械学習入門1章
自然言語処理のための機械学習入門1章自然言語処理のための機械学習入門1章
自然言語処理のための機械学習入門1章
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)
 
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
 
Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
ディープラーニング基礎.pptx
ディープラーニング基礎.pptxディープラーニング基礎.pptx
ディープラーニング基礎.pptx
 

サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会