SlideShare ist ein Scribd-Unternehmen logo
1 von 24
Downloaden Sie, um offline zu lesen
Relational Binarized HOG特徴量と
Real AdaBoostによるバイナリ選択を用いた物体検出
松島千佳,山内悠嗣,藤吉弘亘(中部大学)
山下隆義(中部大学,オムロン株式会社)
1
ハードウェアを用いた物体検出
2
物体検出に有効なHOG特徴量 [Dalal et. al. CVPR ‘05]
• 局所領域における輝度の勾配方向に着目
– 物体の形状を表現可能
– 局所的な幾何学変化に頑健
入力画像
16セル
8セル
HOG特徴量
1セル :
8x8ピクセル
26,880バイト
特徴量数:3,360 個
浮動小数点型:8 バイト
勾配方向ヒストグラム
勾配方向
1 2 3 4 5 6 7 8
勾配強度
1つのウィンドウにおけるメモリ量
1.25GB
サイズ:640x480ピクセル
ウィンドウ数:50,000 個
画像1枚におけるメモリ量
3
1. 特徴量数(次元数)を削減
– ベクトル量子化
• クラスタリングにより特徴量数を削減
– 主成分分析
• 部分空間に射影することにより特徴次元を削減
2. 低ビット量子化により情報量を削減
– スカラー量子化
– 2値化
メモリ量の削減法
4
元の情報量は維持されるが,処理コストは高い
元の情報量は削減されるが,処理コストは低い
閾値処理によるHOG特徴量の2値化
• Binarized HOG特徴量 (B-HOG)
– 固定閾値による閾値処理
– 8方向のバイナリ(バイナリパターン)で1つの特徴量
– 符号なし整数型で扱うことが可能
5
(0 1 1 1 1 0 0 0 )2
B-HOG特徴量
HOG特徴量と比較してメモリ量を1/64に削減
0
1
入力画像 勾配方向ヒストグラム
勾配方向
1 2 3 4 5 6 7 8
勾配強度
閾値
1. 最適な閾値が必要
2. 同一のバイナリパターンとして扱うことが困難
– 閾値との差が小さい場合、容易にバイナリが反転
B-HOG特徴量の問題点
6入力画像
勾配方向勾配強度
勾配方向
勾配強度
0
1
閾値
(0 1 1 1 1 0 0 0 )2
0
1
閾値
(0 1 1 1 0 0 0 0 )2
7( )168
7( )160
提案手法
1. Relational Binarized HOG特徴量 (RB-HOG)
– 2つのセルから得た特徴量の大小関係により2値化
2. “*”を用いた識別に有効なバイナリ選択
– 容易に反転するバイナリを“∗”で表現
• “*”は“0”と“1”の2値を許容
7
閾値が不要であり、メモリ量の削減が可能
特徴量の表現能力が向上
• 2つのセルから得た特徴量の大小関係により2値化
– 閾値(パラメータ)が不要
– 局所領域間の関係性を表現
– HOG特徴量における正規化処理を必要としない
入力画像
Relational Binarized HOG特徴量 (RB-HOG)
8
RB-HOG特徴量
0
1
勾配方向
1 2 3 4 5 6 7 8勾配強度
勾配方向
1 2 3 4 5 6 7 8
勾配強度
勾配強度の差
一
( 1 1 1 1 0 0 0 1 ) 2
類似した形状から得られるRB-HOG特徴量
• 勾配強度が同じ場合,明確な2値で表現困難
9
入力画像
勾配方向
1 2 3 4 5 6 7 8
勾配強度
勾配方向
1 2 3 4 5 6 7 8
勾配強度
勾配強度の差
一
0
1
RB-HOG特徴量
( 0 1 1 1 0 0 1 1 ) 2
• 一方のヒストグラムの勾配方向をシフト
– 「シフトなし」から「7方向シフト」まで8パターン
入力画像
勾配方向
1 2 3 4 5 6 7 8
勾配強度
Shifted Relational Binarized HOG特徴量 (SRB-HOG)
10
0
1
勾配強度の差
一
0方向シフト (s = 0)
SRB-HOG特徴量
(RB-HOG特徴量)
( 0 1 1 1 0 0 1 1 ) 2 : s = 0
勾配方向
1 2 3 4 5 6 7 8
勾配強度
入力画像
勾配方向
1 2 3 4 5 6 7 8
勾配強度
Shifted Relational Binarized HOG特徴量 (SRB-HOG)
11
1方向シフト (s = 1)
SRB-HOG特徴量
1 2 3 4 5 6 7 8 1 2 3 4 5 6 7 8
勾配強度
勾配方向
( 0 1 1 1 0 0 1 1 ) 2 : s = 0
( 0 0 0 1 1 1 1 0 ) 2 : s = 1
0
1
勾配強度の差
一
• 一方のヒストグラムの勾配方向をシフト
– 「シフトなし」から「7方向シフト」まで8パターン
1 2 3 4 5 6 7 8 1 2 3 4 5 6 7 8
入力画像
勾配方向
1 2 3 4 5 6 7 8
勾配強度
12
SRB-HOG特徴量
7方向シフト (s = 7)
…
SRB-HOG特徴量
( 1 1 0 0 0 0 0 1 ) 2 : s = 7
( 0 1 1 1 0 0 1 1 ) 2 : s = 0
( 0 0 0 1 1 1 1 0 ) 2 : s = 1
勾配強度
勾配方向
0
1
勾配強度の差
一
Shifted Relational Binarized HOG特徴量 (SRB-HOG)
• 一方のヒストグラムの勾配方向をシフト
– 「シフトなし」から「7方向シフト」まで8パターン
SRB-HOG特徴量の効果
13
勾配強度の差が少ないバイナリでも,明確な2値化が可能
1 2 3 4 5 6 7 8
勾配強度
0方向シフト (s = 0)
1 2 3 4 5 6 7 8
勾配強度
4方向シフト (s = 4)
勾配強度
5 6 7 8 1 2 3 4
一
勾配強度の差
s = 0 : ( 0 1 1 1 0 0 1 1 ) 2
勾配強度の差
s = 4 : ( 1 1 1 1 0 0 0 1 ) 2
一
2. “*”を用いた識別に有効なバイナリ選択
14
• 勾配強度の差が小さい場合,反転する可能性あり
– 信頼性が低いバイナリが存在する場合,誤検出の要因
“*”の導入
15
111
*0 0
*0
“∗”による表現 “∗”を用いることにより
表現されるパターン
11100000
11110000
11100001
11110001
反転しやすいバイナリに,“0”と“1”を許容する“*”を導入
類似した複数の特徴量を1つのパターンで表現
SRB-HOG特徴量
4方向シフト (s = 4)
勾配方向
1 2 3 4 5 6 7 8
勾配強度
1 2 3 4 5 6 7 8 1 2 3 4 5 6 7 8
勾配強度
勾配方向
( 1 1 1 1 0 0 0 1 ) 2
勾配強度の差一
• 全組み合わせを考慮
– “*”の位置
– “*”の数
一組のセルにおける弱識別器の候補数
16
00000000 00000000 00000000
0000000∗
∗∗∗∗∗∗0∗
000000∗0
…
∗∗∗∗∗∗∗0
00000000
0000000∗
∗∗∗∗∗∗0∗
000000∗0
…
∗∗∗∗∗∗∗0
0000000∗
∗∗∗∗∗∗0∗
000000∗0
…
∗∗∗∗∗∗∗0
0000000∗
∗∗∗∗∗∗0∗
000000∗0
…
∗∗∗∗∗∗∗0
…
…
…
…
…
全ての組み合わせから、識別に有効なパターンを選択
バイナリ数
(0, 1, *)
38 = 6,561パターン
Real AdaBoostの弱識別器
• 各クラスの重みつき頻度により対数比を出力
– 対象パターンと抽出パターンの一致/不一致により算出
17
111
*0 0
*0
対象パターン m 全ての学習サンプルから
抽出したバイナリパターン F(x)
一致
頻度
不一致
各クラスの重み付き頻度
ポジティブクラス
ネガティブクラス
W-
W+
1- W-
1- W+
11100000
11110000
11100001
11110001
00000010
……
評価実験
• 実験内容
– 実験1 : RB-HOG特徴量の有効性を確認
– 実験2 : バイナリ選択の有効性を確認
• 比較手法
– HOG特徴量 (HOG)
– Binarized HOG特徴量 (B-HOG)
– Relational Binarized HOG特徴量 (RB-HOG)
– RB-HOG特徴量+勾配方向のシフト (SRB-HOG)
• 評価方法
– DET (Detection Error Tradeoff)カーブ
• 原点に近いほど検出器の性能が高い
18
データセット
19
データセット 学習用 評価用
ポジティブ ネガティブ ポジティブ ネガティブ
INRIA person dataset 2,415 12,180 1,126 453
車両のデータセット 710 8,800 1,230 3,880
ポジティブサンプル
ネガティブサンプル
INRIA person dataset
ポジティブサンプル
ネガティブサンプル
車両のデータセット
実験1 : RB-HOG特徴量の有効性の確認
20
提案手法の中ではSRB-HOG特徴量が最も高精度
1
10
100
Missrate[%]
0.10.001 0.01 1.0 10.0
False positive per window (FPPW) rate [%]
(a) INRIA person dataset
HOG
SRB-HOG
B-HOG
RB-HOG
1
10
100
Missrate[%]
1.00.1 10.0
False positive per window (FPPW) rate [%]
(b) 車両のデータセット
B-HOG
SRB-HOG
RB-HOG
HOG
実験2 : バイナリ選択の有効性を確認
21
1
10
100
Missrate[%]
0.10.001 0.01 1.0 10.0
False positive per window (FPPW) rate [%]
(a) INRIA person dataset
HOG
SRB-HOG (*なし)
検出精度がHOG特徴量と同程度以上
容易に反転するバイナリを“*” により抑制可能
SRB-HOG (*あり)
1
10
100
Missrate[%]
1.00.1 10.0
False positive per window (FPPW) rate [%]
(b) 車両のデータセット
HOG
SRB-HOG (*あり)
SRB-HOG (*なし)
考察:選択された“*”の数の割合
22
SRB-HOG
B-HOG
0 1 2 3 4 5 6 7
*の数
0.00
0.05
0.10
0.15
0.20
0.25
頻度
(a) INRIA person dataset
B-HOG
SRB-HOG
(b) 車両のデータセット
0 1 2 3 4 5 6 7
*の数
0.00
0.05
0.10
0.15
0.20
0.25
頻度
SRB-HOG特徴量はB-HOG特徴量より “*”の数が少ない
“*”で表現されたバイナリは“0”か“1”か不明確
“*”の数が少ないほど,曖昧なバイナリが少ない
メモリ量と処理時間の比較
• 特徴抽出に必要なメモリ量の比較
• 特徴抽出から識別までの処理時間の比較
23
特徴量 HOG B-HOG RB-HOG SRB-HOG
メモリ量[KB] 3.91 0.50 0.49 0.98
処理時間[s] 5.39×10−10 5.40×10−10 2.70×10−10 2.70×10−10
メモリ量を約75%削減
HOG特徴量のバイナリパターン化
処理時間を約50%削減
HOG特徴量の正規化が不必要
1つの検出ウィンドウ(64×128ピクセル)当たりの計測結果
まとめ
• RB-HOG特徴量とReal AdaBoostによる
バイナリ選択を用いた物体検出
– Relational Binarized HOG特徴量
• 2つのセルから得たHOG特徴量の大小関係により2値化
• Sifted Relational Binarized HOG特徴量
– 勾配方向をシフトして大小関係により2値化
– 勾配強度の差が小さい場合でも明確な2値化が可能
– “*”を用いた識別に有効なバイナリ選択
• 容易に反転するバイナリを“*”で表現
• 今後の予定
– 効率の良いSRB-HOG特徴量の学習手法を検討
24

Weitere ähnliche Inhalte

Was ist angesagt?

[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use ToolsDeep Learning JP
 
[DL輪読会]End-to-End Object Detection with Transformers
[DL輪読会]End-to-End Object Detection with Transformers[DL輪読会]End-to-End Object Detection with Transformers
[DL輪読会]End-to-End Object Detection with TransformersDeep Learning JP
 
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -MPRG_Chubu_University
 
SfM Learner系単眼深度推定手法について
SfM Learner系単眼深度推定手法についてSfM Learner系単眼深度推定手法について
SfM Learner系単眼深度推定手法についてRyutaro Yamauchi
 
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量takaya imai
 
サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強Kazuki Adachi
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Yoshitaka Ushiku
 
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...Deep Learning JP
 
[DL輪読会]AutoAugment: LearningAugmentation Strategies from Data & Learning Data...
[DL輪読会]AutoAugment: LearningAugmentation Strategies from Data & Learning Data...[DL輪読会]AutoAugment: LearningAugmentation Strategies from Data & Learning Data...
[DL輪読会]AutoAugment: LearningAugmentation Strategies from Data & Learning Data...Deep Learning JP
 
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)Taiji Suzuki
 
ベルヌーイ分布からベータ分布までを関係づける
ベルヌーイ分布からベータ分布までを関係づけるベルヌーイ分布からベータ分布までを関係づける
ベルヌーイ分布からベータ分布までを関係づけるitoyan110
 
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)ARISE analytics
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係についてDeep Learning JP
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 

Was ist angesagt? (20)

2 3.GLMの基礎
2 3.GLMの基礎2 3.GLMの基礎
2 3.GLMの基礎
 
機械学習と主成分分析
機械学習と主成分分析機械学習と主成分分析
機械学習と主成分分析
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
 
[DL輪読会]End-to-End Object Detection with Transformers
[DL輪読会]End-to-End Object Detection with Transformers[DL輪読会]End-to-End Object Detection with Transformers
[DL輪読会]End-to-End Object Detection with Transformers
 
正準相関分析
正準相関分析正準相関分析
正準相関分析
 
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
 
SfM Learner系単眼深度推定手法について
SfM Learner系単眼深度推定手法についてSfM Learner系単眼深度推定手法について
SfM Learner系単眼深度推定手法について
 
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量
 
サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
 
Structure from Motion
Structure from MotionStructure from Motion
Structure from Motion
 
[DL輪読会]AutoAugment: LearningAugmentation Strategies from Data & Learning Data...
[DL輪読会]AutoAugment: LearningAugmentation Strategies from Data & Learning Data...[DL輪読会]AutoAugment: LearningAugmentation Strategies from Data & Learning Data...
[DL輪読会]AutoAugment: LearningAugmentation Strategies from Data & Learning Data...
 
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
 
ベルヌーイ分布からベータ分布までを関係づける
ベルヌーイ分布からベータ分布までを関係づけるベルヌーイ分布からベータ分布までを関係づける
ベルヌーイ分布からベータ分布までを関係づける
 
Depth Estimation論文紹介
Depth Estimation論文紹介Depth Estimation論文紹介
Depth Estimation論文紹介
 
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 

Mehr von MPRG_Chubu_University

Hough forestを用いた物体検出
Hough forestを用いた物体検出Hough forestを用いた物体検出
Hough forestを用いた物体検出MPRG_Chubu_University
 
アピアランスと時空間特徴の共起に基づく人検出
 アピアランスと時空間特徴の共起に基づく人検出 アピアランスと時空間特徴の共起に基づく人検出
アピアランスと時空間特徴の共起に基づく人検出MPRG_Chubu_University
 
統計的学習手法による人検出
統計的学習手法による人検出統計的学習手法による人検出
統計的学習手法による人検出MPRG_Chubu_University
 
距離情報に基づく局所特徴量によるリアルタイム人検出
距離情報に基づく局所特徴量によるリアルタイム人検出距離情報に基づく局所特徴量によるリアルタイム人検出
距離情報に基づく局所特徴量によるリアルタイム人検出MPRG_Chubu_University
 
色の類似性に基づいた形状特徴量CS-HOGの提案
色の類似性に基づいた形状特徴量CS-HOGの提案色の類似性に基づいた形状特徴量CS-HOGの提案
色の類似性に基づいた形状特徴量CS-HOGの提案MPRG_Chubu_University
 
複数パスを考慮したRegression Forestsによるカメラのヨー角の推定
複数パスを考慮したRegression Forestsによるカメラのヨー角の推定複数パスを考慮したRegression Forestsによるカメラのヨー角の推定
複数パスを考慮したRegression Forestsによるカメラのヨー角の推定MPRG_Chubu_University
 
平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット
平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット
平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカットMPRG_Chubu_University
 
キーフレーム間の物体追跡結果に基づく
キーフレーム間の物体追跡結果に基づくキーフレーム間の物体追跡結果に基づく
キーフレーム間の物体追跡結果に基づくMPRG_Chubu_University
 
Cascaded FASTによるキーポイント検出
Cascaded FASTによるキーポイント検出Cascaded FASTによるキーポイント検出
Cascaded FASTによるキーポイント検出MPRG_Chubu_University
 
アプリケーション展開におけるキーポイント

アプリケーション展開におけるキーポイント
アプリケーション展開におけるキーポイント

アプリケーション展開におけるキーポイント
MPRG_Chubu_University
 
局所特徴量と統計学習手法による物体検出
局所特徴量と統計学習手法による物体検出局所特徴量と統計学習手法による物体検出
局所特徴量と統計学習手法による物体検出MPRG_Chubu_University
 
進化する物体認識技術 一般物体認識とは
進化する物体認識技術 一般物体認識とは進化する物体認識技術 一般物体認識とは
進化する物体認識技術 一般物体認識とはMPRG_Chubu_University
 

Mehr von MPRG_Chubu_University (14)

Hough forestを用いた物体検出
Hough forestを用いた物体検出Hough forestを用いた物体検出
Hough forestを用いた物体検出
 
アピアランスと時空間特徴の共起に基づく人検出
 アピアランスと時空間特徴の共起に基づく人検出 アピアランスと時空間特徴の共起に基づく人検出
アピアランスと時空間特徴の共起に基づく人検出
 
統計的学習手法による人検出
統計的学習手法による人検出統計的学習手法による人検出
統計的学習手法による人検出
 
距離情報に基づく局所特徴量によるリアルタイム人検出
距離情報に基づく局所特徴量によるリアルタイム人検出距離情報に基づく局所特徴量によるリアルタイム人検出
距離情報に基づく局所特徴量によるリアルタイム人検出
 
色の類似性に基づいた形状特徴量CS-HOGの提案
色の類似性に基づいた形状特徴量CS-HOGの提案色の類似性に基づいた形状特徴量CS-HOGの提案
色の類似性に基づいた形状特徴量CS-HOGの提案
 
複数パスを考慮したRegression Forestsによるカメラのヨー角の推定
複数パスを考慮したRegression Forestsによるカメラのヨー角の推定複数パスを考慮したRegression Forestsによるカメラのヨー角の推定
複数パスを考慮したRegression Forestsによるカメラのヨー角の推定
 
Binary code-based Human Detection
Binary code-based Human DetectionBinary code-based Human Detection
Binary code-based Human Detection
 
平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット
平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット
平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット
 
キーフレーム間の物体追跡結果に基づく
キーフレーム間の物体追跡結果に基づくキーフレーム間の物体追跡結果に基づく
キーフレーム間の物体追跡結果に基づく
 
Cascaded FASTによるキーポイント検出
Cascaded FASTによるキーポイント検出Cascaded FASTによるキーポイント検出
Cascaded FASTによるキーポイント検出
 
Random Forestsとその応用
Random Forestsとその応用Random Forestsとその応用
Random Forestsとその応用
 
アプリケーション展開におけるキーポイント

アプリケーション展開におけるキーポイント
アプリケーション展開におけるキーポイント

アプリケーション展開におけるキーポイント

 
局所特徴量と統計学習手法による物体検出
局所特徴量と統計学習手法による物体検出局所特徴量と統計学習手法による物体検出
局所特徴量と統計学習手法による物体検出
 
進化する物体認識技術 一般物体認識とは
進化する物体認識技術 一般物体認識とは進化する物体認識技術 一般物体認識とは
進化する物体認識技術 一般物体認識とは
 

Relational Binarized HOG特徴量とReal AdaBoostによるバイナリ選択を用いた物体検出