6. 顔の形状当てはめ
x1
y
1
S
x N fp
yN
fp
ˆ
min S S (1)
2
推定した形状 正解データ
7. 従来法
Optimization-based
AAMなど、(1)と相関する誤差関数を使用
Regression-based
パラメトリックなモデルで、間接的に(1)を最小化
個々のランドマークの見えからリグレッサーを学習
目的: ランドマーク間の相関も考慮し、直接(1)を最小化す
るリグレッサーを求める!
ˆ
min S S (1)
2
推定した形状 正解データ
8. 回帰による形状当てはめ
Boosting Regressor
形状を弱いリグレッサーの和とする。
T 画像
S S R (I )
0 t
推定 平均 t 1 弱リグレッサー
形状 形状
(形状の変化分)
t 1 t 1
S S
t
R ( I , S ), t 1,, T
t
(2)
更新 現在の 弱リグレッサー
形状 形状 (形状の変化分)
9. 回帰による形状当てはめ
Boosting Regressor
各学習サンプルの形状誤差の和が最小となるリグレッサーを算出
N
R t arg min Si ( Sit 1 R( I i , Sit 1 ))
ˆ (3)
R
i 1
訓練サンプルの誤差
ˆ
min S S (1)
2
t 1 t 1
S St
R ( I , S ), t 1,, T
t
(2)
更新 現在の 弱リグレッサー
形状 形状 (形状の変化分)
10. 回帰による形状当てはめ
Boosting Regressor
各学習サンプルの形状誤差の和が最小となるリグレッサーを算出
N
R t arg min Si ( Sit 1 R( I i , Sit 1 ))
ˆ (3)
R
i 1
訓練サンプルの誤差
学習の順番 ˆ
Si
正解形状
S0
R1
S i1
R2
S i2
… SiT 1
RT
S iT
11. Two-level cascaded regression
リグレッサーを2段階のBoostingで構成する
収束性向上&性能向上のため
N
R t arg min Si ( Sit 1 R( I i , Sit 1 ))
ˆ (3)
R
i 1
K
R t ( I i , Sit 1 ) Sit 1 r k ( I i , Sik 1 )
k 1
2段目の弱リグレッサー
(Primitive Regresser)
12. Two-level cascaded regression
リグレッサーを2段階のBoostingで構成する
収束性向上&性能向上のため
N
R t arg min Si ( Sit 1 R( I i , Sit 1 ))
ˆ (3)
R
i 1
K
R t ( I i , Sit 1 ) Sit 1 r k ( I i , Sik 1 )
k 1
S S r ( I , S ), k 1,, K
k k 1 k k 1
S 0 S t 1
13. Two-level cascaded regression
リグレッサーを2段階のBoostingで構成する
収束性向上&性能向上のため
N
R t arg min Si ( Sit 1 R( I i , Sit 1 ))
ˆ (3)
R
i 1
N
r arg min
k ˆ ( S k 1 r ( I , S k 1 ))
Si i i i
r
i 1
S S r ( I , S ), k 1,, K
k k 1 k k 1
S 0 S t 1
14. Two-level cascaded regression
リグレッサーを2段階のBoostingで構成する
収束性向上&性能向上のため
学習の順番
S i2
… SiT 1 S iT
0 1
S S
R1 i
R2 RT
S 0
S 1
i S 1
i S i
2
SiT 1 S iT
r1 r2 … rK … …
fern
15. Primitive Regressor
2段目の弱リグレッサー = fern
F個の特徴を持ち、各特徴は閾値で2つに分類
全部で2のF乗のグループに分ける
F次元特徴ベクトル f1, f 2 , f3 , f 4 , f5
T
fern
k
r
個の各binに S b
0,1,1,0,1
F
出力
T 2
を割り当てる
16. Primitive Regressor
Sb arg min Si (Si S )
ˆ b :このbinの訓練 (4)
S サンプル集合
ib
Sb
ib
ˆ
( Si Si )
(5)
b
bと判別された訓練サンプルの形状と正解形状の誤差の平均
17. Primitive Regressor
Sb arg min Si (Si S )
ˆ b :このbinの訓練 (4)
S サンプル集合
ib
Sb
1 ib
ˆ
( Si Si )
(6)
1 / b b
データ数が少なかった時
のOverfittingを避けるた
め
23. Correlation-based feature selection
CBFS(Correlation-based feature selection)
P 2 個の特徴の中から、目標(正解形状と現在の形状の差
分)と相関の高いものを取ってくる
N
R t arg min Si ( Sit 1 R( I i , Sit 1 ))
ˆ (3)
R
i 1
t 1ˆ S t 1
R( I i , S ) S i
i i
ターゲット
25. Correlation-based feature selection
2
2. P 個の特徴の中から取得したスカラー値と最も相関の
高いものを1つ選ぶ
訓練サンプル
x
x 1,, i ,, N T
相関
f1,, fi ,, f N T
x
x
x
x
N=学習サンプル数
26. Correlation-based feature selection
3. 1と2をF回繰り返し、F個の特徴を取得
4. F個の特徴にランダムに閾値を設けることで、fernを作
成
ˆ
Si Sit 1
1,, i ,, N T
相関
f1,, fi ,, f N T
i
ランダムなベクトル
27. Non-parametric shape constraint
本手法での形状は、以下の式で表せる
N
S S wi Si
0 ˆ (6)
初期形状 i 1 訓練形状
訓練形状の線型部分空間内のため、顔の形状に制約
が自動的につく
人の顔として不自然な形に歪むことがない!
28. Non-parametric shape constraint
本手法での形状は、以下の式で表せる
N
S S wi Si
0 ˆ (6)
初期形状 i 1 訓練形状
顔の変形へのペナルティがいらない!
AAMやCLMの場合
n
Q(p) R(p) Di (xi ; I )
i 1
パラメータ 顔の変形の アピアランス
誤差関数 大きさに対す の類似度
るペナルティ
(正則化項)
32. 学習方法の擬似コード
学習データから平均顔形状 S 0 を算出
S S0
While (T):
画像からP個の画素をランダムに取得し P 2の画素ペアを作成
S S
While (K):
S と P
2
の特徴ベクトルでfernを学習(CBFS)
fernで学習画像を 2 F のグループに分離
分離した各グループから各binの S b を(6)で決定
Sb
1
ib
ˆ
( Si Si )
(6)
1 / b b
Si Si rk ( I , Si)
S S
36. LFPWデータセットの結果
丸の半径が本手法のエラーの平 [1]P.Belhumeur et al, ”Localizing parts
均。Greenが従来法と比べ10%以 of faces using a concensus of
上精度が上がった箇所 exemplars”, CVPR2011