SlideShare ist ein Scribd-Unternehmen logo
1 von 57
Downloaden Sie, um offline zu lesen
9章 部分空間法による変化検知
機械学習プロフェッショナルシリーズ輪読会 異常検知と変化検知
2015-11-18
@hagino3000 (Takashi Nishibayashi)
お前だれよ
Twitter @hagino3000
facebook Takashi Nishibayashi
work at VOYAGE GROUP
普段扱ってるデータ ネット広告配信のログ
9章の内容
• 扱うデータ
• 時系列データ
• やりたい事
• 図1.1の下二つの異常を捉える事
9章の流れ
• 古典技法である累積和法を紹介
• 近傍法 (部分時系列の導入)
• やっぱり密度比問題で考える
• 特異スペクトル変換法
• 特異スペクトル変換の高速化
9.1 累積和法
例:化学プラント反応器
• 化学プラント反応器で特定の化学物質の濃度を時々
刻々監視しているとする
• たまたま局所的に濃度が高かったり低かったりする
• 「観測1回ごとにひとつひとつ異常度を計算する」
タイプの監視技術は不適切かもしれない
• ここでは,継続して何らかの異常状態が発生してい
るかどうかを検知したい.すなわち変化検知.
Section 9.1
正常時と異常時のモデル
• ある量ξが,正常時には安定してμという値を取る
とわかっている
• 正常値から上にν+振れるようなら何かが起ってい
ると判断する
N(⇠|µ, 2
)
N(⇠|µ + ⌫+, 2
)
正常時のモデル
異常時のモデル
Section 9.1
正常時と異常時のモデル
• ある量ξが,正常時には安定してμという値を取る
とわかっている
• 正常値から上にν+振れるようなら何かが起ってい
ると判断する
N(⇠|µ, 2
)
N(⇠|µ + ⌫+, 2
)
正常時のモデル
異常時のモデル
確率分布の比較により
状態変化を検知できる
Section 9.1
変化度の定義
a(x0
) = ln
p(x0
|y = 1, D)
p(x0|y = 0, D)
(1.2)
を使うと
a(⇠(t)
) ⌘ ln
N(⇠(t)
|µ + ⌫+, 2
)
N(⇠(t)|µ, 2)
(9.1)
= (
⌫+
)
⇠(t)
µ (⌫+/2)
(9.2)
一つの方法は,単発の異常度を束ねて状態変化を表す
指標に仕立てる
Section 9.1
変化度の定義
a(x0
) = ln
p(x0
|y = 1, D)
p(x0|y = 0, D)
(1.2)
を使うと
1章 p5
ネイマン・ピアソン決定則
a(⇠(t)
) ⌘ ln
N(⇠(t)
|µ + ⌫+, 2
)
N(⇠(t)|µ, 2)
(9.1)
= (
⌫+
)
⇠(t)
µ (⌫+/2)
(9.2)
一つの方法は,単発の異常度を束ねて状態変化を表す
指標に仕立てる
Section 9.1
変化度の定義
a(x0
) = ln
p(x0
|y = 1, D)
p(x0|y = 0, D)
(1.2)
を使うと
1章 p5
ネイマン・ピアソン決定則
a(⇠(t)
) ⌘ ln
N(⇠(t)
|µ + ⌫+, 2
)
N(⇠(t)|µ, 2)
(9.1)
= (
⌫+
)
⇠(t)
µ (⌫+/2)
(9.2)
時刻tにおける観測地ξの
単発の異常度(正誤あり)
一つの方法は,単発の異常度を束ねて状態変化を表す
指標に仕立てる
Section 9.1
変化度の定義 (続き)
異常状態が続くと,異常度は継続して正の値を取るた
め,時刻tにおける変化度は漸化式の形にできる
a
(t)
+ ⌘
h
a
(t 1)
+ + a(⇠(t)
)
i
+
(9.3)
=
h⇥
a
(t 2)
+ + a(⇠(t 1)
)
⇤
+
+ a(⇠(t)
)
i
+
=
h⇥
[a
(t 3)
+ + a(⇠(t 2)
)]+ + a(⇠(t 1)
)
⇤
+
+ a(⇠(t)
)
i
+
= ...
[・]+はカッコの中が正なら何
もせず,負ならゼロにする
Section 9.1
累積和
• 式(9.3)のように定義される変化度を,一般に

累積和 (cumulative sum, CUMSUM)と呼ぶ.
• 上側(μ+ν+)の累積和は上側累積和
• 下側(μ-ν-)の累積和は下側累積和
• 図の9.1
Section 9.1
累積和法の問題
• 上振れと下振れのνをどのように決めるか
• 累積和の閾値をどのように決めるか
• 観測値の値について事前知識が必要
Section 9.1
9.2 近傍法による異常部位検出
異常部位検出
• 事前知識が無くても使える気軽な方法を考える
• 1.2節の異常部位検出を考える
Section 9.2
スライド窓と部分時系列
観測値として長さTの時系列
D = {⇠(1)
, ⇠(2)
, ..., ⇠(T )
}
があった時に,M個の隣接する観測値をまとめて
x(1)
⌘
0
B
B
B
@
⇠(1)
⇠(2)
...
⇠(M)
1
C
C
C
A
, x(2)
⌘
0
B
B
B
@
⇠(2)
⇠(3)
...
⇠(M+1)
1
C
C
C
A
, . . . (9.5)
のM次元ベクトルの集りとして表わす. この時Mは
N = T M + 1 (9.6)
本のベクトルに変換される
Section 9.2
スライド窓と部分時系列 (続き)
3 1 4 1 5 9 2 6 5 3 5 8 9 7 0
(例)長さ15の時系列データについて5個の隣接した観測値をまとめる
3 1 4 1 5 9 2 6 5 3 5 8 9 7 0
x(1)
x(2)
…
15本の5次元ベクトルができる
Section 9.2
スライド窓と部分時系列 (続き)
3 1 4 1 5 9 2 6 5 3 5 8 9 7 0
(例)長さ15の時系列データについて5個の隣接した観測値をまとめる
3 1 4 1 5 9 2 6 5 3 5 8 9 7 0
x(1)
x(2)
…
15本の5次元ベクトルができる
スライド窓(sliding window)
もしくは滑走窓と呼ぶ
移動平均を出したり,信号処理でフィ
ルタかけたりするのによく使う
Section 9.2
スライド窓と部分時系列 (続き)
t 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
観測値 3 1 4 1 5 9 2 6 5 3 5 8 9 7 0
x x x x x x x x x x x
3 1 4 1 5 9 2 6 5 3 5
1 4 1 5 9 2 6 5 3 5 8
4 1 5 9 2 6 5 3 5 8 9
1 5 9 2 6 5 3 5 8 9 7
5 9 2 6 5 3 5 8 9 7 0
これを普通の多変量データと区別するために部分時系列と呼ぶ
Section 9.2
近傍法での外れ値検出
• ベクトルの集りに変換できたので1 8章の手法が使える.
• k = 1とした近傍法による外れ値検出が異常部位検出の文
献に多く見られる
例:M=2とした場合の
各windowをプロット
Section 9.2
近傍法での外れ値検出
• ベクトルの集りに変換できたので1 8章の手法が使える.
• k = 1とした近傍法による外れ値検出が異常部位検出の文
献に多く見られる
例:M=2とした場合の
各windowをプロット
最近傍標本までの距離を使っ
て異常度が計算できる
Section 9.2
自己一致 (self match)
• スライド窓で生成したベクトルは統計的独立性の仮定を満たさない
• ある程度滑らかな時系列データは隣りあった部分時系列の要素の値は
ほとんど等しくなる.
• 時間的に近接した部分時系列同士は比較しない,といった工夫が必要
前のスライドのスパイクの
高解像度版
Section 9.2
9.3 変化検知問題と密度比
改めて変化検知問題を考える
• スライド窓を使ってベクトルの集合にして変化度を
求められたが、まだまだ人手による工夫が必要だっ
た
• 時刻tにおいて過去側と現在側に2つの領域を設定
し、その領域内に入るベクトルでそれぞれの確率分
布を推定して比較すれば良い
Section 9.3
時刻
t
p(t)(x) 確率分布 p (t)(x)
分布の相違度 = 変化度
Section 9.3
分布間の相違度
時刻tにおける過去の確率分布と,現在の確率分布の差を計算
する.
a(t)
=
Z
dx p(t)
(x)ln
p(t)
(x)
p0(t)(x)
(9.8)
Section 9.3
分布間の相違度
時刻tにおける過去の確率分布と,現在の確率分布の差を計算
する.
a(t)
=
Z
dx p(t)
(x)ln
p(t)
(x)
p0(t)(x)
(9.8)
確率分布間の距離を測る式の一つ
Kullback Librar divergence
Section 9.3
9.4 特異スペクトル変換法
密度比が必要になった
• 式(9.8)で確率密度とその比が必要になった
• 確率密度推定
• ノンパラ: カーネル密度推定など
• パラメトリック: 特定の分布にあてはめる
• 9.4章ではフォンミーゼス・フィッシャー分布を仮
定する
Section 9.4
フォンミーゼス・フィッシャー分布
• 7章の復習
• http://www.slideshare.net/nakanotomofumi/7-54766192
• von Mises分布の多次元版
• 方向データの分布を表現するのに使える
• 平均方向(μ)と集中度(κ)の2つがパラメータ
M(x|µ, ) =
M/2 1
(2⇡)M/2IM/2 1()
exp(µT
x)
フォンミーゼス・フィッシャー分布
を使った変化度の計算
p(t)
(z) = M(z|u(t)
, ), p0(t)
(z) = M(z|q(t)
, )
を使って式(9.8)を展開
過去側,現在側それぞれの部分
時系列から求めた
特徴的な方向ベクトル
集中度は同じと仮定
Section 9.4.1
a(t)
=
Z
dz M(z|u(t)
, )zT
(u(t)
q(t)
)
= (1 u(t)T
q(t)
) (9.9)
フォンミーゼス・フィッシャー分布
を使った変化度の計算
p(t)
(z) = M(z|u(t)
, ), p0(t)
(z) = M(z|q(t)
, )
を使って式(9.8)を展開
過去側,現在側それぞれの部分
時系列から求めた
特徴的な方向ベクトル
過去と現在の部分集合の特徴がパターン同じなら異常度ゼロ
直行している時に最大値κ
集中度は同じと仮定
Section 9.4.1
a(t)
=
Z
dz M(z|u(t)
, )zT
(u(t)
q(t)
)
= (1 u(t)T
q(t)
) (9.9)
特徴的なパターンの自動抽出
(1/N)
NX
n=1
x(n)
最も素朴には総和平均の
だが,ここでは特徴的な方向を各窓の一次結合で表現する
(一次結合にすると何が良いかは後で説明します)
最も強めあう方向を求めるには
νTν=1の元で,¦¦Xν¦¦2を最大化すれば良い (9.11)
Section 9.4.2
X⌫ = x(1)
⌫1 + x(2)
⌫2 + · · · + x(N)
⌫N (9.10)
X = [x(1)
, . . . , x(N)
], ⌫ ⌘ [⌫1, . . . , ⌫N ]T
特徴的なパターンの自動抽出
(1/N)
NX
n=1
x(n)
最も素朴には総和平均の
だが,ここでは特徴的な方向を各窓の一次結合で表現する
(一次結合にすると何が良いかは後で説明します)
最も強めあう方向を求めるには
νTν=1の元で,¦¦Xν¦¦2を最大化すれば良い (9.11)
二乗ノルムになっているのは計算上の都合?
Section 9.4.2
X⌫ = x(1)
⌫1 + x(2)
⌫2 + · · · + x(N)
⌫N (9.10)
X = [x(1)
, . . . , x(N)
], ⌫ ⌘ [⌫1, . . . , ⌫N ]T
復習
• ラグランジュ関数
• ある制約条件の元で目的関数を最大化するのに使える
• 6章に出てきた http://www.slideshare.net/
shotarosano5/in-54205735
• ベクトルの微分
Section 9.4.2
d
dx
(xT
a) =
d
dx
(aT
x) = a
ラグランジュ関数を使って
特徴的な方向を求める
• ラグランジュ関数を最大化するνを求めたい

上に凸なので微分してゼロになるνが解
から式(9.12)が得られる
Section 9.4.2
d
d⌫
{⌫T
XT
X⌫ ⌫T
⌫} = 0
XT
X⌫ = ⌫ (9.12)
ラグランジュ関数を使って
特徴的な方向を求める
• ラグランジュ関数を最大化するνを求めたい

上に凸なので微分してゼロになるνが解
から式(9.12)が得られる
この式だけ見ても解けない気がする……が
Section 9.4.2
d
d⌫
{⌫T
XT
X⌫ ⌫T
⌫} = 0
XT
X⌫ = ⌫ (9.12)
固有値方程式
• の時
• 行列Aの固有ベクトルがx,スカラ値λが固有値
• xとλは求まる
• http://qiita.com/kenmatsu4/items/
2a8573e3c878fc2da306
Ax = x
Section 9.4.2
例:NumPyで解く
Section 9.4.2
例:NumPyで解く
固有値2つと固有ベクトル2つが
求まった
Section 9.4.2
特異値分解
からさらに別の固有値方程式が導ける.左からXをかけて 

u = Xν/ γと置く
まとめると9.12の解 (γ1,ν1), (γ2,ν2),.. から {νi}と{ui}が得
られた,これらは
を満たす
Section 9.4.2
XT
X⌫ = ⌫ (9.12)
XXT
u = u (9.13)
X⌫i =
p
iui, XT
ui =
p
i⌫i (9.14)
特異値分解(続き)
U [u1,..,uM] と V [ν1,..νM] と置くと9.14の右の式
から XT
U = VΓ1/2
となる.これをXについて整理すると.式9.15が得
られる,これをXの特異値分解 (singular value decomposition SVD)と呼ぶ
X = U 1/2
VT
(9.15)
{u 左特異ベクトル
{ν 右特異ベクトル
{ γ 特異値
Section 9.4.2
XT
ui =
p
i⌫i
特異値分解の特徴
特異値の数をXの階数(rank)よりも小さくすると,式(9.15)
は近似となる.
マイナーな方向を無視したベクトルが得られる.ノイズ除去.
次元削減ができる.これは総和平均を使った場合と異なる点
Section 9.4.2
ここまでの流れ
• 過去の部分時系列と現在の部分時系列の確率密度の差を取れば良
いのでは
• フォンミーゼス フィッシャー分布を仮定して

KL-divergenceを求めた
• 変化度の式(9.9)は κ(1-u
(t)T
q
(t)
) になった.
• 2つの部分時系列から特徴的なパターンを求めれば良い
• 特異値分解で求まった
• NEXT -> これらから変化度を求める
時刻
t
{u(t,1),..u(t,r)} 特異ベクトル {q(t,1),..q(t,m)}
両者の食い違い = 変化度
特異スペクトル変換法
X(t) Z(t)
L
履歴行列
テスト行列
変化度の定義
X(t)においてr本,Z(t)においてm本の左特異ベクトルを選ぶ
U(t)
r ⌘ [u(t,1)
, u(t,2)
, . . . , u(t,r)
] (9.18)
Q(t)
m ⌘ [q(t,1)
, q(t,2)
, . . . , q(t,m)
] (9.19)
過去側と現在側で1本だけ特異ベクトルを選ぶ場合,変化度
は式(9.9)から
a(t) = 1 u(t,1)T
q(t,1)
(9.20)
(係数κは省略)
Section 9.4.3
復習
• ノルム
• 長さの一般化
• ベクトル空間に距離を与える
•
• ベクトル2ノルムはユークリッドノルム
||x||p ⌘ (|x1|p
+ |x2|p
+ · · · + |xM |p
)1/p
(9.22)
変化度の定義 (続き)
複数選ぶ場合
ここまでの手続を特異スペクトル変換もしくは特異スペクト
ル解析と呼ぶ
Section 9.4.3
行列2ノルムは? → 行列の最大特異値(9.4.2より)
変化度の定義 (続き)
複数選ぶ場合
ここまでの手続を特異スペクトル変換もしくは特異スペクト
ル解析と呼ぶ
2乗ノルムを使う流儀もある
Section 9.4.3
行列2ノルムは? → 行列の最大特異値(9.4.2より)
心電図データでのテスト
• データは http://www.cs.ucr.edu/ eamonn/
discords/ から入手できる
• 間にあわず
• 図9.5の通りになるはず
Section 9.4.3
9.5 ランチョス法による特異ス
ペクトル変換の高速化
特異スペクトル変換の計算コスト
• 特異値分解が重い
Section 9.5
定義9.2 (固有射影計算問題)
M次元実対象行列Cと,aTa = 1 を満たすM次元ベクトルaが与
えられている.Cの固有ベクトル u(1), u(2),.. とするとき.これら
とaとの内積


を計算せよ.
hi(C, a) ⌘ aT
u(i)
(9.24)
a(t) = 1
v
u
u
t
rX
i=1
hi(XXT, q(t,1))2 (9.25)
のように,変化度の計算はq(t,1)の計算と内積の計算に帰着され
ます.
特異スペクトル変換の変化度(9.21)でm = 1とすれば
p123の真ん中あたりを引用
Section 9.5
定義9.2 (固有射影計算問題)
M次元実対象行列Cと,aTa = 1 を満たすM次元ベクトルaが与
えられている.Cの固有ベクトル u(1), u(2),.. とするとき.これら
とaとの内積


を計算せよ.
hi(C, a) ⌘ aT
u(i)
(9.24)
a(t) = 1
v
u
u
t
rX
i=1
hi(XXT, q(t,1))2 (9.25)
のように,変化度の計算はq(t,1)の計算と内積の計算に帰着され
ます.
特異スペクトル変換の変化度(9.21)でm = 1とすれば
XXTの固有ベクトルの計算は??
p123の真ん中あたりを引用
Section 9.5
XXTの固有値分解を行なわずに

hi(XXT, a)を求めたい
• 3重対角行列の固有値分解は速い
• ATXXTA = T が3重対角行列になるようなAを求め
Tの固有ベクトルを使ってhi(XXT, a)を求める
• hi(XXT, a) = aTAbi
• Aはランチョス法で求める
• biはTの固有ベクトル (この計算は速い)
Section 9.5
Question?

Weitere ähnliche Inhalte

Was ist angesagt?

Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説tancoro
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定Akira Masuda
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向ohken
 
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Hideki Tsunashima
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement LearningPreferred Networks
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報Deep Learning JP
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明Satoshi Hara
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)Satoshi Hara
 
線形?非線形?
線形?非線形?線形?非線形?
線形?非線形?nishio
 
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」Ken'ichi Matsui
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチMIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチHironobu Fujiyoshi
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative ModelsDeep Learning JP
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方joisino
 

Was ist angesagt? (20)

Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
 
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
 
線形?非線形?
線形?非線形?線形?非線形?
線形?非線形?
 
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチMIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 

Ähnlich wie 異常検知と変化検知 9章 部分空間法による変化点検知

モンテカルロサンプリング
モンテカルロサンプリングモンテカルロサンプリング
モンテカルロサンプリングKosei ABE
 
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqsleipnir002
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
Prml Reading Group 10 8.3
Prml Reading Group 10 8.3Prml Reading Group 10 8.3
Prml Reading Group 10 8.3正志 坪坂
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説Preferred Networks
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】Naoki Hayashi
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係についてDeep Learning JP
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Seiya Tokui
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半koba cky
 
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...T T
 
PyTorch, PixyzによるGenerative Query Networkの実装
PyTorch, PixyzによるGenerative Query Networkの実装PyTorch, PixyzによるGenerative Query Networkの実装
PyTorch, PixyzによるGenerative Query Networkの実装Shohei Taniguchi
 
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz..."Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...nkazuki
 
mxnetで頑張る深層学習
mxnetで頑張る深層学習mxnetで頑張る深層学習
mxnetで頑張る深層学習Takashi Kitano
 
文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...
文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...
文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...Toru Tamaki
 
第9回 大規模データを用いたデータフレーム操作実習(3)
第9回 大規模データを用いたデータフレーム操作実習(3)第9回 大規模データを用いたデータフレーム操作実習(3)
第9回 大規模データを用いたデータフレーム操作実習(3)Wataru Shito
 
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...Deep Learning JP
 
博士論文本審査スライド
博士論文本審査スライド博士論文本審査スライド
博士論文本審査スライドRyuichi Ueda
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)Morpho, Inc.
 
Introduction to NumPy & SciPy
Introduction to NumPy & SciPyIntroduction to NumPy & SciPy
Introduction to NumPy & SciPyShiqiao Du
 

Ähnlich wie 異常検知と変化検知 9章 部分空間法による変化点検知 (20)

モンテカルロサンプリング
モンテカルロサンプリングモンテカルロサンプリング
モンテカルロサンプリング
 
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvq
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
Prml Reading Group 10 8.3
Prml Reading Group 10 8.3Prml Reading Group 10 8.3
Prml Reading Group 10 8.3
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
 
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
 
PyTorch, PixyzによるGenerative Query Networkの実装
PyTorch, PixyzによるGenerative Query Networkの実装PyTorch, PixyzによるGenerative Query Networkの実装
PyTorch, PixyzによるGenerative Query Networkの実装
 
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz..."Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
 
mxnetで頑張る深層学習
mxnetで頑張る深層学習mxnetで頑張る深層学習
mxnetで頑張る深層学習
 
文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...
文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...
文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...
 
第9回 大規模データを用いたデータフレーム操作実習(3)
第9回 大規模データを用いたデータフレーム操作実習(3)第9回 大規模データを用いたデータフレーム操作実習(3)
第9回 大規模データを用いたデータフレーム操作実習(3)
 
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
 
第2回DARM勉強会
第2回DARM勉強会第2回DARM勉強会
第2回DARM勉強会
 
博士論文本審査スライド
博士論文本審査スライド博士論文本審査スライド
博士論文本審査スライド
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
 
Introduction to NumPy & SciPy
Introduction to NumPy & SciPyIntroduction to NumPy & SciPy
Introduction to NumPy & SciPy
 

Mehr von hagino 3000

スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習hagino 3000
 
Cloud DatalabとBigQueryを使ったアドホックデータ解析
Cloud DatalabとBigQueryを使ったアドホックデータ解析Cloud DatalabとBigQueryを使ったアドホックデータ解析
Cloud DatalabとBigQueryを使ったアドホックデータ解析hagino 3000
 
アドネットワークのデータ解析チームを支える技術
アドネットワークのデータ解析チームを支える技術アドネットワークのデータ解析チームを支える技術
アドネットワークのデータ解析チームを支える技術hagino 3000
 
Secure Code for Interactive Programming
Secure Code for Interactive ProgrammingSecure Code for Interactive Programming
Secure Code for Interactive Programminghagino 3000
 
ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様
ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様
ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様hagino 3000
 
Introduction of Leap Motion
Introduction of Leap MotionIntroduction of Leap Motion
Introduction of Leap Motionhagino 3000
 
Where does my money go チーム発表
Where does my money go チーム発表Where does my money go チーム発表
Where does my money go チーム発表hagino 3000
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現hagino 3000
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰hagino 3000
 
ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)
ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)
ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)hagino 3000
 
今日からはじめるKinect Hack
今日からはじめるKinect Hack今日からはじめるKinect Hack
今日からはじめるKinect Hackhagino 3000
 
Introduction of Kinect Hacks
Introduction of Kinect HacksIntroduction of Kinect Hacks
Introduction of Kinect Hackshagino 3000
 
JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料
JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料
JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料hagino 3000
 
はじめてのChaos Proxy Viewer
はじめてのChaos Proxy ViewerはじめてのChaos Proxy Viewer
はじめてのChaos Proxy Viewerhagino 3000
 
HTML5を使ったウェブアプリケーションの高速化
HTML5を使ったウェブアプリケーションの高速化HTML5を使ったウェブアプリケーションの高速化
HTML5を使ったウェブアプリケーションの高速化hagino 3000
 
Google App Engine で初めるServerSide JavaScript
Google App Engine で初めるServerSide JavaScriptGoogle App Engine で初めるServerSide JavaScript
Google App Engine で初めるServerSide JavaScripthagino 3000
 

Mehr von hagino 3000 (20)

スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習
 
Cloud DatalabとBigQueryを使ったアドホックデータ解析
Cloud DatalabとBigQueryを使ったアドホックデータ解析Cloud DatalabとBigQueryを使ったアドホックデータ解析
Cloud DatalabとBigQueryを使ったアドホックデータ解析
 
アドネットワークのデータ解析チームを支える技術
アドネットワークのデータ解析チームを支える技術アドネットワークのデータ解析チームを支える技術
アドネットワークのデータ解析チームを支える技術
 
Secure Code for Interactive Programming
Secure Code for Interactive ProgrammingSecure Code for Interactive Programming
Secure Code for Interactive Programming
 
ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様
ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様
ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様
 
iOS WebView App
iOS WebView AppiOS WebView App
iOS WebView App
 
Introduction of Leap Motion
Introduction of Leap MotionIntroduction of Leap Motion
Introduction of Leap Motion
 
Where does my money go チーム発表
Where does my money go チーム発表Where does my money go チーム発表
Where does my money go チーム発表
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰
 
ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)
ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)
ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)
 
NUIとKinect
NUIとKinectNUIとKinect
NUIとKinect
 
今日からはじめるKinect Hack
今日からはじめるKinect Hack今日からはじめるKinect Hack
今日からはじめるKinect Hack
 
Introduction of Kinect Hacks
Introduction of Kinect HacksIntroduction of Kinect Hacks
Introduction of Kinect Hacks
 
JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料
JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料
JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料
 
はじめてのChaos Proxy Viewer
はじめてのChaos Proxy ViewerはじめてのChaos Proxy Viewer
はじめてのChaos Proxy Viewer
 
HTML5を使ったウェブアプリケーションの高速化
HTML5を使ったウェブアプリケーションの高速化HTML5を使ったウェブアプリケーションの高速化
HTML5を使ったウェブアプリケーションの高速化
 
逃亡の勧め
逃亡の勧め逃亡の勧め
逃亡の勧め
 
Google App Engine で初めるServerSide JavaScript
Google App Engine で初めるServerSide JavaScriptGoogle App Engine で初めるServerSide JavaScript
Google App Engine で初めるServerSide JavaScript
 
Extjs + Gears
Extjs + GearsExtjs + Gears
Extjs + Gears
 

Kürzlich hochgeladen

プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価sugiuralab
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Danieldanielhu54
 
20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directoryosamut
 
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。iPride Co., Ltd.
 
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
新人研修のまとめ       2024/04/12の勉強会で発表されたものです。新人研修のまとめ       2024/04/12の勉強会で発表されたものです。
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。iPride Co., Ltd.
 
PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000Shota Ito
 
プレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツールプレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツールsugiuralab
 
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxIoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxAtomu Hidaka
 

Kürzlich hochgeladen (8)

プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
 
20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory
 
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
 
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
新人研修のまとめ       2024/04/12の勉強会で発表されたものです。新人研修のまとめ       2024/04/12の勉強会で発表されたものです。
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
 
PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000
 
プレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツールプレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツール
 
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxIoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
 

異常検知と変化検知 9章 部分空間法による変化点検知