SlideShare ist ein Scribd-Unternehmen logo
1 von 16
ISMAR2016まとめ2016.11.20 Ver.
森 尚平
・全論文をカバーしているわけではありません
・逐次,追加予定です
・Inspired by Yoichi Ochiai (Tsukuba Univ.)
Gaussian Light Field : Estimation of Viewpoint-Dependent Blur for Optical See-Through Head-Mounted Displays
Y. Itoh, T. Amano, D. Iwai, and G. Klinker
TUM, Wakayama Univ., Osaka Univ., and TUM
①「観測されたPSF-提案手法のPSF」「観測されたPSF-
Baseline PSF」で類似度比較. PSNRで評価する.観測された
PSFは実測データなのでパラメータ化されていないため,パラ
メータ空間での比較は不可能.②ある画像を作り(図8 (a))そ
れをOST-HMDに写して撮影(図8 (e)).これに対して,提案
手法等で合成した画像(図8 (f-h))を作り,図8 (e) と比較する.
PSNRで評価.
眼球がディスプレイに正対しているという前提(回転は無視).
光学系は1つと想定(複数の組み合わせを想定していない).
実時間推定はできない(目指してもいないが…).カメラを
使った較正(実際の目ではない).
[16] - [20]:著者らの過去の研究.特に[19]は今回の方法論に近い方法がと
られているという点で注目!(3章の冒頭,最終段落を参照のこと)
OST-HMDのための視点依存ボケLight Fieldのモデル化
(Gaussian Light Field; GLF) と推定.ぼけ量 (PSF) が推定でき
るということは,既存手法でそれを補正することができるとい
う主張.VR用のHMDのように収差の大きいHMDにも利用可.
OST-HMDはディスプレイから目に届けるまでの光を操作する
ための光学系の種類が様々でそれぞれのぼけに一度に対処する
方法はなく,視点(眼球位置)依存である.この両方を想定し
た研究はなかった.提案手法はこの両方をGLFにより同時に解
決し,更には歪み補正も同時に行うことができる.
基本的には,著者らの前回の手法[19]を利用したという印象.
LF+奥行き(入力,5次元データ)とPSF(出力)を対応付け
たGLFをモデル化し,期待値最大(EM) 法で入出力を対応付け
る関数を推定する.※EM法はココの図を見ると直感的理解が得られる.
どんなもの?
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
どうやって有効だと検証した?
議論はある?
次に読むべき論文は?
2016/10/6 森尚平
GLFのイメージ図(位置に応じて
ボケ量 (PSF) が異なる
A Real-time Augmented Reality System to See-Through Cars
Franc¸ois Rameau,Hyowon Ha, Kyungdon Joo, Jinsoo Choi, Kibaek Park, In So Kweon
Electrical Engineering, Robotics and Computer Vision Lab, KAIST, Daejeon, Republic of Korea
通信速度の検証:前後の車両間で,「3D点群マップ(最大500
点)」,「透過領域の画像」,「後方車両の位置情報」を送信
し,通信速度・データ量を測定.車車間通信で利用される
9.2Mbits/sの帯域幅で送信可能なことを確認.
ユーザスタディ:以下を実施「解像度の異なる結果画像を比較
させ,約95%の被験者が低解像度の場合でも大きな違和感がな
いことを確認」,「透過領域で発生した事象を答えさせ,約
94%の被験者が正答したことを確認」.
ベンチマークテスト:データセットを用いて,「(1) 位置姿勢
推定の誤差をVISO2[1]と比較」, 「(2) 前方車両をワイヤフ
レームで表現した画像と透過処理後の画像の平均二乗誤差を比
較」 ,「(3) 解像度毎の視差画像のピーク信号対雑音比を計
算」.(1), (2) からトラッキング精度を確認,(3) から画質と速
度のトレードオフ関係を確認
[1] A. Geiger et al. : Dense 3d reconstruction
in real-time. In IEEE Intelligent Vehicles Symposium (IV), 2011
自車両の前方にある車両をリアルタイムに透過する技術.前方
車両のステレオカメラで隠背景を3次元点群再構成し,3次元点
群に対して,自車両の画像と2D-3Dのマッチングを行うことで,
自車両の位置姿勢を推定し,自車両位置からの透過画像を生成.
走行する2車両間においてリアルタイムのデータ通信を実現,
かつ,マーカレスで動作する.
やり取りするデータを「3D点群マップ(最大500点)」,「透
過領域の画像」,「両車両の位置情報」のみに絞り,両車両の
コンピュータで並列処理することで,車車間の通信遅延を低減.
後方車両の位置推定において,点群に対してFASTで初期位置
推定を行い,以降,ピラミッドKLTによる位置の更新を行う.
また,RANSAC-P3Pにより少ない特徴点量で計算し,毎フ
レームごとの自車両位置のトラッキングを実現.
どんなもの?
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
どうやって有効だと検証した?
参考文献
2016/10/21 M1 平田遼太郎,B4 菊池裕太
キーワード:AR, collaborative vehicle, see-through, visual odometry, 2D-3D feature tracking
Robust Keyframe-based Monocular SLAM for Augmented Reality
H. Liu, G. Zhang, and H. Bao Zhejiang University, ISMAR2016
定性・定量的な比較評価.比較対象はORB-SLAM2,PTAM,
LSD-SLAM,RDSLAM,SVO,DT-SLAMと主要なSLAM.全
部オープンソースでそれを使った.
定性評価:パラメータを変えたり,色々な動きをさせた.
定量評価:TUMデータセットを利用.キーフレームのRMSE,
開始率(全フレーム/初期化フレームインデックス:トラッキ
ング開始の速さに相当),初期化後のトラッキング成功率.
テクスチャがない,もしくは繰り返しパターンがあるシーンで
は失敗する.これは,IMUで解決できる.将来的にLSD-SLAM
の様なアプローチをとる予定.
実験で比較対象となっている手法.
速い動きや回転に頑健なSLAM (RKSLAM) の提案.
既存のSLAMでは破たんするような速い動きや回転でも破たん
しない.ビジョンだけでなく,IMUも利用可.
PTAMを代表とするSLAMは,メインのトラッキングスレッド
とバックグラウンドで走るマッピングスレッドに分かれている.
RKSLAMでは,速い動きに対処するため,速く処理できるロー
カルマップをメインスレッドに保持し,処理・参照できる.
グローバルマップとローカルマップ:前者は最低でも2回以上
観測された点のための処理で,PTAM等と同じもの.後者は最
低でも1回以上観測された点のための処理で,複数の近傍フ
レームを使い,メインのスレッドで処理される.
3種のホモグラフィ別に計算:画像全体,画像の一部,3次元空
間中の平面.
どんなもの?
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
どうやって有効だと検証した?
議論はある?
次に読むべき論文は?
2016/11/2 PD 森尚平
Keywords:Multi-homography, sliding-window local map
expansion and optimization framework
Figure 5dより.
IMUを使ったRKSLAMの結果.←
← 3種のホモグラフィを利用
Robust Keyframe-based Monocular SLAM for Augmented Reality
H. Liu, G. Zhang, and H. Bao
Zhejiang University, ISMAR2016
Foreground Thread(メインのスレッド)
・FASTコーナー検出
・グローバルホモグラフィ計算
・グローバルと特定平面からのホモグラフィで2D-3D対応取得
・PTAMのトラッキングクオリティ判断の処理
(良い,プア,悪いに判別される)
・良ければキーフレーム追加などを行う
(大きな平行移動はプアか悪いになる)
- プア の 場合 :ほ と んど の 点は まだ 信 頼で き る (well
constrained) のでローカルホモグラフィで他の特徴点を再
びマッチングするようにする
- 悪いの場合,PTAMの破たん復帰処理を実行.復帰したら
グローバルホモグラフィの処理からやり直す
Background Thread(バックグラウンドで走るスレッド)
・キーフレームを追加するとバックグラウンドで3次元点を
推定するローカルバンドル調整が行われる.その点から既存
の平面を拡張したり新たな平面が得られたりする
・ループクローズを見つけてグローバルバンドル調整でループ
クローズする.ループクローズの検出は破たん復帰と同じ処
理でキーフレームを検出することで行う.
※キーフレーム選択,破たん復帰処理,ループクローズは独立
の処理なので,別のもっと良い手法に置き換えても良い.
アルゴリズム(主に3章より)
2016/11/2 PD 森尚平
Leveraging the User’s Face for Absolute Scale Estimation in Handheld Monocular SLAM
Sebastian B. Knorr and Daniel Kurz
???
スケールの決定にマーカーを使った場合とユーザの顔を使った
場合でスケールの正確性を検証した.
スケールを推定するときに顔を動かさないようにする必要があ
る.将来的には顔がシーンに対して動いていないときを検出し
てスケールを測定したい.
特になし.
スマホのようなデバイスを用いて,内向きカメラでユーザの顔
を撮影しながら同時に外向きカメラでSLAMをすることで,単
眼(?)SLAMで絶対スケールを推定できる.(図.b)
キャリブレーションボードなどスケール既知のものがなくても,
顔の大きさから絶対スケールを推定できるっていうアイデアと
実装
内向きカメラの画像U→(顔の大きさは既知として絶対スケール
で)→内向きカメラのpose→(内向きカメラから外向きカメラへ
のRとt)→外向きカメラのpose
以上のように求められたposeから得られた複数のキーフレー
ムから3次元復元する.(図.c)
どんなもの?
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
どうやって有効だと検証した?
議論はある?
次に読むべき論文は?
2016/10/11 B4 鶏内朋也
(a)
(b)
(c)
2016/10/21 M1 石橋朋果
Instant Mixed Reality Lighting from Casual Scanning
Thomas Richter-Trummer1,2, Denis Kalkofen1, Jinwoo Park3, and Dieter Schmalstieg1
1Graz University of Technology, 2Bongfish GmbH, 3Korea Advanced Institute of Science and Technology
様々な照明条件下において,いくつかの対象物に対して提案手
法を適用し,実物体である真値データと目視で比較した.提案
手法を適用する対象物は,拡散反射,鏡面反射の両方を含むも
の,また鏡面反射はあまりなく,主に拡散反射をするものなど
様々なものを使用した.
静的なシーンのみを前提としているため,物体が移動したり,
形状が変化する物体には適用することできない.照明の指向性
が限定されている.
[23] Perceptual global illumination cancellation in complex
projection environments.←この手法のように,RGB色空間を使
用する代わりに,LAB色空間を使用して,物体の色情報を扱お
うとしている.
RGB-Dカメラを使用して,任意に取得した情報から,物体の
反射特性,入射光の両方を推定する.そして,実物体と同じ物
体を実環境にレンダリングし,リライティングを行うことがで
きる.
様々な準備は必要なく,またカメラの動きを制限せずに,ユー
ザが無作為に取得する情報を基に物体を再構成,反射率を求め
ることにより,セルフシャドウ,鏡面反射の再現を行いリライ
ティングすることで,高精度な結果を得ることができる.
どんなもの?
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
どうやって有効だと検証した?
議論はある?
次に読むべき論文は?
Kinectから取得した3次元情報を,物体ごとにメッシュを分割し,
インバースレンダリングにより放射輝度伝搬を用いて入射光と物
体の反射特性を求める.そして,分割したテクスチャ付きメッ
シュから,鏡面反射係数を求める.これらにより,リライティン
グを行う.
キーワードは?
inverse rendering
A Single Camera Image Based Approach for Glossy Reflections in Mixed Reality Applications
Tobias Schwandt and Wolfgang Broll←PixMixの人
Ilmenau University of Technology
結果を主観的な目視により有効であるとし,処理時間が10フ
レーム/秒というリアルタイム性があるため,MRにおいて有効
な手法であると確認した.
カメラに直接面している滑らかで鏡のような表面は,正確に反
射を求めることができない可能性がある(c).光源を任意に推
定することができず,光源は上からシーンを照らす白色光のみ
としている.拡散,反射用の環境マップは,カメラに映る情報
をコピーして作成しているため,正確ではない(b).1つのカメ
ラしか使用しないため,そのカメラに映る範囲のシーンの変化
にしか対応できない.シーン内の実物体の材質の推定をしてい
ない.
[22] DynamicFusion: Reconstruction and tracking of non-rigid
scenes in real-time.←この手法により,シーンの3次元再構成
の精度を上げることができるかもしれない.動物体のKinect
Fusion.
従来のAR/MRに関する研究では,シーンの光源情報を取得する
ために,鏡面球,複数のHDRカメラ,魚眼レンズ付きカメラを
使用している.しかしながら,提案手法では,1つの単眼RGB-
Dカメラのみを用いて.リアルタイムで行うことができる.
手法のキモは,リアルタイムで行うために, screen-space ray-
tracing を使用している.また,RGB-Dカメラから取得した3次
元モデルに穴が空いていることがあるため,RGB情報を利用し
て,デプス情報にInpaintingを適用した後に,GIFという既存フィ
ルタにかけて, screen-space ray-tracingを行うための法線ベク
トルを取得する.
どんなもの?
技術や手法のキモはどこ?
どうやって有効だと検証した?
議論はある?
次に読むべき論文は?
単眼RGB-Dカメラを用いて,鏡のような光沢のある仮想物体
の反射を再現する手法を提案している(a).この手法により,
MR時のカメラに映る範囲のシーンの変化を仮想物体に反映す
ることができる.
先行研究と比べてどこがすごい?
2016/10/21 M1 石橋朋果
screen-space ray-tracing,screen-space reflections(SSR),Guided Image Filter (GIF)
この論文を読むうえで重要なキーワードは?
(a) (b) (c)
An Empirical Model for Specularity Prediction with Application to Dynamic Retexturing
Alexandre Morgand, Mohamed Tamaazousti, and Adrien Bartoli
CEA, LIST, Vision & Content Engineering Lab / ISIT
PhongとBlinn-Phongの反射モデルから合成したデータと,実
データを使用して,JOLIMASの精度を確認した.実データに
は3種類の光源と,5種類の物体を用いた.実データのカメラ位
置姿勢はSLAMを使用.推定した円錐形とグランドトゥルース
の輪郭をSturmの距離を用いてピクセル単位で比較した.また,
推定した鏡面反射をCGの物体に付与することでも確認した.
鏡面反射を観察する,また再現する物体の対象は,平面のみで
曲面に対する鏡面反射には対応できない.
[10] Specular reflections and the perception of shape.←鏡面反
射の形状が,二次導関数と関連していることを示している論文.
再現が困難な電球や蛍光灯などの室内の光源による平面を持つ
物体の鏡面反射を推定するJOLIMASという経験的モデルを提
案している.JOLIMASにより任意の視点から鏡面反射をレン
ダリングすることができる.
物体の鏡面反射をRGB-Dカメラを使用して測定したシーンの
モデルから推定する手法はあるが,画像群から推定する手法は
存在しない.
鏡面反射を予測するために,カメラから得られた画像内の鏡面
反射を検出し,カメラから鏡面球に対しての円錐形を伸ばし,
多視点からの円錐形と重なる位置に二次曲面(図のQ)を推定
する.それを基に,透視投影を行い,任意の視点からの鏡面反
射を再現する.(中央の図)
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
どうやって有効だと検証した?
議論はある?
次に読むべき論文は?
どんなもの?
2016/10/21 M1 石橋朋果
JOLIMAS (JOint LIght-MAterial Specularity),Phong,Blinn-Phong
この論文を読むうえで重要なキーワードは?
Edge Snapping-Based Depth Enhancement for Dynamic Occlusion Handling in Augmented Reality
Chao Du, Yen-Lin Chen, Mao Ye, and Liu Ren
University of Kentucky, Bosch Research, Bosch Research, and Bosch Research
距離画像をバイラテラルフィルタを用いて補正した場合と,
提案手法を用いた場合での結果を比較し,評価.
3シーンにおいて,提案手法を用いて,仮想物体と実物体のオ
クルージョン対処を行い,先行研究と比較し,結果が改善され
ていることを確認.
シーン内の物体同士の色の特徴が似ている場合は,物体の境界
線にエッジが強く発生しないため,うまくいかないことがある.
複雑なシーンの場合,エッジが多く発生するため,距離画像と
RGB画像でエッジの対応が取れない可能性がある.
[4] [S.Dong et al., Journal of Computing in Civil Engineering]:
AR時にリアルタイムでオクルージョンに対処する方法に関す
る先行研究.
AR時に,仮想物体と現実物体のオクルージョンを動的なシー
ンに対しても対処できるアルゴリズムの開発を行った研究
これまでにも距離画像センサを用いてオクルージョンに対処す
る研究は行われてきたが,距離画像センサの精度の問題により,
エッジ部分に歪みが発生する.この研究では,距離情報を
RGB画像を用いて補正することで,この歪みを抑えたオク
ルージョン対処を行っている
距離画像とRGB画像それぞれのエッジの情報を利用し,距離
画像では歪みが発生したエッジを補正している.
具体的には,距離画像による物体のエッジを点に分け,図2の
ように,距離情報のエッジである赤線上の緑の点を,物体の
エッジである紫色の点に補正し,距離画像のエッジの補正を
行っている
どんなもの?
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
どうやって有効だと検証した?
議論はある?
次に読むべき論文は?
2016/10/21 B4 堀田勝
キーワード
図2 補正のイメージ図
Occlusion Handling, Depth Enhancement, Edge Snapping
歪み発生
動画
https://vimeo.com/178817780 実行結果や,アルゴリズムの説明
Learning to Fuse: A Deep Learning Approach to Visual-Inertial Camera Pose Estimation
Jason Rambach, Aditya Tewari, Alain Pagani, Didier Stricker
German Research Center for Artificial Intelligence
Deep Neural Networkに前回のフレームのカメラ位置姿勢,今
回のフレームでセンサからえられた角度,加速度センサの値を
入力しカメラ位置姿勢を推定.同時に特徴点ベースのトラッキ
ングによりカメラ位置姿勢を推定しそれらの結果を最適化.
Deep Neural Networkを画像,センサの両方を使用したトラッ
キング手法に応用した初めての手法.センサに乗るノイズを
Deep Neural Networkが勝手に吸収してくれるため,角度,加
速度センサに対する既存のノイズ削減手法を用いる必要がない.
カメラとセンサのfpsの差を活用し,Deep Neural Networkの入
力を増加.カルマンフィルタにより,画像のみを用いたトラッ
キングによるカメラ位置姿勢推定結果とDeep Neural Network
による推定結果をマージ.その結果を次フレームのDeep
Neural Networkの入力の一部としフィードバック処理.
どんなもの?
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
2016/10/11 M1 中島 由勝
学習: 事前にカメラ位置姿勢のGround Truthを元にDeep Neural
Networkを学習.実験: 平面パターンを机に置きトラッキング.
Ground Truthは机に設置したマーカにより取得.速くカメラが
動いた場合と遅く動いた場合の2シーンで実験.画像のみを用
いたトラッキングによる推定結果と比較.
センサを用いた他のトラッキング手法と比較したらどうなるの
か.対象が平面以外の物体での実験は?
特になし
どうやって有効だと検証した?
議論はある?
次に読むべき論文は?
Keywords:
Deep Neural Network, Camera Pose Estimation, Tracking, Sensor
PPV: Pixel-Point-Volume Segmentation for Object Referencing
in Collaborative Augmented Reality
Kuo-Chin Lien, Benjamin Nuernberger, Tobias Hollerer, and Matthew Turk
University of California, Santa Barbara
ある視点で画面上に描いた2次元の円の中にある物体を異なる
視点から見た時にセグメンテーションできているかを提案手法
を含めた3手法で比較した.Amazon Mechanical Turkを使っ
て,どの手法の処理結果の画像が最も良い結果かを約160人に
選んでもらった.
ユーザの入力(囲み方)によっては,不要な背景部分も含めて
セグメントされてしまうことがある(右の図).
オーバーセグメンテーション
・VCCS algorithm [20] (CVPR 2013)
実験で比較対象となっている手法
・Median depth plane [4] (VRST 2014)
・2D-3D co-segmentation [18] (3DUI 2016)
うめうめ
うめうめ
ピクセル,3次元点,スーパーボクセルからなるThree-layer
graphに対してグラフカットを行う.ある点の色尤度・局所確率,
ピクセルレイヤ,スーパーボクセルレイヤ,クロスレイヤエッジ
に関する4つのインジケータ関数の和が最小になるようにしてい
る.VCCS (Voxel Cloud Connectivity Segmentation)
algorithmを採用して,3次元点と逆投影した2次元ピクセルが存
在する空間を効率よくオーバーセグメント化している.
どうやって有効だと検証した?
議論はある?
次に読むべき論文は?
ユーザが画面上に描いた2次元の円の中にある物体を3次元的
にセグメンテーションする.
先行研究と異なり,目的の物体が平面的である必要はなく,綺
麗に分離するための慎重なスキャンも必要ない.同じフレーム
ワークでoutside-in/inside-outのシーン,また,凸面・平面オ
ブジェクトの両方を処理することができる.
どんなもの?
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
キーワード:Three-layer graph, Segmentation
2016/11/14 M2 松見優一
Augmented Reality 3D Discrepancy Check in Industrial Appliocation
Oliver Wasenmuller, Marcel Meyer, and Didier Stricker
DFKI – German Research Center for Artificial Intelligence
CoRBSベンチマークとICL-NUMベンチマークを用いて3つの項
目を評価①再構成の精度の高さを4つの既存手法と比較評価 ②
参照モデルと再構成モデルの位置合わせの正確さを評価③2つ
のモデルのずれの検出の正確さを評価.
また各処理にかかった時間を計測して処理時間を評価
参照モデルと再構成モデルの位置合わせに幾何学的な特徴点し
か使うことができず,色やテクスチャといった情報を特徴点と
して利用できない.
R. B. Rusu, N. Blodow, and M. Beetz. Fast point feature
histograms (fpfh) for 3D registration. In IEEE International
Conference on Robotics and Automation (ICRA), pages 3212–
3217. IEEE, 2009.←位置合わせに使用した特徴抽出に関する論文
RGB-Dカメラを用いて3次元再構成し,再構成モデル(Voxel
データ)と参照モデルを位置合わせ,2つのモデルのずれ量を
検出する.これらの処理をリアルタイムかつ高精度に行ってい
る.工場などでの実利用を想定.
再構成マッピングの精度が高い.参照モデルと再構成モデルの
位置合わせを高速に行うことができる新しい半自動位置合わせ
アルゴリズム.参照モデルと再構成モデルのずれ量の計算を正
確,高速に計算している.
高精度な再構成のためにRGB-Dカメラの光軸中心に近い画素
だけ利用し,再構成モデルを高精度に作成
①特徴を用いて2つのモデルを粗く揃える②ICPを用いて正確
にそろえる.この2つの処理をユーザがタイミングを指定でき
る半自動位置合わせアルゴリズム.
VDBボクセル構造を用いた距離計算による高速なずれ検出.
どんなもの?
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
どうやって有効だと検証した?
議論はある?
次に読むべき論文は?
2016/10/21 B4 両角泰希
キーワード:ボクセル,Iterative Closet Point(ICP),VDB
EyeAR: Empiric Evaluation of Refocusable Augmented Reality System
Aitor Rovira*1, Rompapas Damien Constantine*1, Christian Sandor*1, Takafumi Taketomi*1, Hirokazu Kato*1, and Sei Ikeda*2
*1Nara Institute of Science and Technology and *2Ritsumeikan University
オプティカルシースルーシステムであること,カメラのパラ
メータを使う代わりにユーザの目を計測して利用すること.
また,LFDのアプローチとの違いは,関連するサブセットの中
でディスプレイしか使用していないこと.
焦点深度の違いを正しく修正するために,それぞれの柱と半透
明ディスプレイとの距離が重要となってくる.また,オートレ
フケラトメータを使うと,仮想の柱を見抜きやすくなると考え
られ,被験者の学習効果や性別によっては仮想の柱が見抜きに
くくなる場合もある.
[D. Constantine Rompapas et al., IEEE ISMAR 2015]
[P. Kan et al., Eurographics 2012]
人の目を測定し,それに基づいてリフォーカスすることができ
るディスプレイ.オートレフケラトメーターを用いて近視・遠
視・乱視などの有無や程度を測定し数値化し,その値を基に
MRのシーンを構成する.DemoではそれをMicrosoft Hololens
で体験でき,Posterではプロトタイプの有用性を確認した.
ユーザからそれぞれ異なる距離にある赤・青・緑の柱(うち1つ
は仮想)を用意し,それを被験者に見せ,どの色が仮想の柱か
を当ててもらうテストをした.それを以下の2つの仮説のもと
検証した.【①オートレフケラトメーターがオンのとき,被験
者はどれが仮想の柱か分からずに選ぶはずだろう②オートレフ
ケラトメータがオフのとき,オンのときよりも正解率が上がる
だろう】オンとオフの場合を調べ,結果的には,仮想の青い柱
と実物の青い柱を区別することができないという結果になった.
どんなもの?
どうやって有効だと検証した?
先行研究と比べてどこがすごい?
議論はある?
次に読むべき論文は?
2016/10/21 B4 松永知典
EyeAR
(Poster)
(Demo)
EyeAR: Refocusable Augmented Reality Content through Eye Measurements
Rompapas Damien Constantine*1, Aitor Rovira*1, Sei Ikeda*2, Alexander Plopski*1, Takafumi Taketomi*1, Christian Sandor*1, and Hirokazu Kato*1
*1Nara Institute of Science and Technology and *2Ritsumeikan University
Near-eye LFD
Keywords: Raytracing / Augmented Reality / Physically Based AR /
Depth of Field / Optical Defocus
Improving Localization under Varying Illumination
Alexander Plopski, Tomohiro Mashita, Akira Kudo, Tobias Hoellerer, Kiyoshi Kiyokawa, Haruo Takemura
Nara Institute of Science and Technology, Osaka University, University of California
提案手法で構築したデータベースを使用したユークリッド距離
によるマッチング手法とマハラノビス距離を用いたマッチング
手法で自己位置推定を行い,評価実験を行った.結果,マハラ
ノビス距離を利用した手法は,ユークリッド距離を使用した場
合に比べて処理時間が大きくなってしまうが,少ない特徴点数
で精度の高い自己位置推定を行うことができることがわかった.
従来手法と比べて提案手法のほうが処理時間は大きい.マハラ
ノビス距離の計算に用いる主成分の数を少なくすることで処理
時間はある程度改善されるが,これは推定の安定性とトレード
オフの関係にある.
工藤彰 , Alexander Plopski, Tobias Hollerer, 間下以大 , 清
川清 , 竹村治雄 . 異なる光源環境における画像特徴の頑健性
の調査 . 研究報告コンピュータビジョンとイメージメディ
ア( CVIM ) , Vol. 2015, No. 65, pp. 1–5, jan 2015.
屋外拡張現実における自己位置推定のためのデータベース構築
方法と異なる光源環境における各特徴点の分散を考慮したマハ
ラノビス距離の考えを導入したマッチング手法を提案した.
CG モデルを構築し,様々な光源をバーチャル空間でシミュ
レーションすることで,より多様な特徴点を抽出したデータ
ベースを構築した.マハラノビス距離を用いることで全ての
データを参照することなく効率的に特徴点の対応付けが可能.
巨大なデータベースを構築して直接参照するのではなく,各特
徴点の位置毎に光源環境の変化を表現するパラメトリックモデ
ルを設定し,特徴点のマッチングをそのモデルに対して行うこ
とで,データベースの特徴点数に依存しない特徴点マッチング
を行う.
どんなもの?
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
どうやって有効だと検証した?
議論はある?
次に読むべき論文は?
2016/10/23 M1 QIE JIANING
キーワード:屋外の位置合わせ,マハラノビス距離,パラメトリックモデル
(Poster)
Use of Random Dot Patterns for Achieving X-Ray Vision with
Stereoscopic Augmented Reality Displays
Sanaz Ghasemi, Mai Otsuki, and Paul Milgram
University of Toronto, University of Tsukuba, University of Toronto
ランダムドットの大きさと密度を変えて被験者実験を行い,
(a)実物の表面の情報が欠落しているか,(b)透明度の知覚はど
のくらいかを確かめた.(a)には信号検出理論,(b)にはサース
トンの一対比較法を用いた.
まだ評価のみに留まっており,今後は実行可能性や研究全体の
有効性について広げていきたい.実物とCGの距離を熟慮し,3
次元の異なる曲面の平面を持つソリッドな物体に描画すること
を目指す.
視覚的なノイズについての論文
[4] V. Interrante, Illustrating Transparency: Communicating the 3D
shape of layered transparent surfaces via texture, Unpublished
Doctoral dissertation, Univ. North Carolina at Chapel Hill, 1996.
実物のうしろにCGがある時,実物の表面にランダムドットを
描画するとCGが実物の奥にあるように見える.このとき,
ドットの大きさと密度をどのように変更すると表面の透明度を
保ちつつCGの透視ができるか確かめる.
①ランダムドットを添付すること,②実物の表面のテクス
チャに依存しないこと,③すべてステレオのディスプレイを用
いること
同じ研究グループの過去の研究とは異なり,CGをランダム
ドットで上書きしないようにしている.これは,両眼視差とオ
クルージョンという奥行き手がりをお互いに衝突させないため
である.また,ステレオの画像から奥行き情報を取得し,テク
スチャを描画する位置を決めている.
どんなもの?
先行研究と比べてどこがすごい?
技術や手法のキモはどこ?
どうやって有効だと検証した?
議論はある?
次に読むべき論文は?
キーワード:両眼立体視,透過表現,X-ray Vision
2016/10/25 M2 松木ひとみ
追加資料
(ステレオ画像)
(Poster)

Weitere ähnliche Inhalte

Was ist angesagt?

Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images...
Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images...Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images...
Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images...Kento Doi
 
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View SynthesisDeep Learning JP
 
Scan Registration for Autonomous Mining Vehicles Using 3D-NDT
Scan Registration for Autonomous Mining Vehicles Using 3D-NDTScan Registration for Autonomous Mining Vehicles Using 3D-NDT
Scan Registration for Autonomous Mining Vehicles Using 3D-NDTKitsukawa Yuki
 
Robust Vehicle Localization in Urban Environments Using Probabilistic Maps
Robust Vehicle Localization in Urban Environments Using Probabilistic MapsRobust Vehicle Localization in Urban Environments Using Probabilistic Maps
Robust Vehicle Localization in Urban Environments Using Probabilistic MapsKitsukawa Yuki
 
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~SSII
 
2015年度GPGPU実践プログラミング 第13回 多粒子の運動
2015年度GPGPU実践プログラミング 第13回 多粒子の運動2015年度GPGPU実践プログラミング 第13回 多粒子の運動
2015年度GPGPU実践プログラミング 第13回 多粒子の運動智啓 出川
 
2015年度GPGPU実践プログラミング 第14回 N体問題
2015年度GPGPU実践プログラミング 第14回 N体問題2015年度GPGPU実践プログラミング 第14回 N体問題
2015年度GPGPU実践プログラミング 第14回 N体問題智啓 出川
 
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified NetworkDeep Learning JP
 

Was ist angesagt? (8)

Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images...
Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images...Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images...
Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images...
 
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
 
Scan Registration for Autonomous Mining Vehicles Using 3D-NDT
Scan Registration for Autonomous Mining Vehicles Using 3D-NDTScan Registration for Autonomous Mining Vehicles Using 3D-NDT
Scan Registration for Autonomous Mining Vehicles Using 3D-NDT
 
Robust Vehicle Localization in Urban Environments Using Probabilistic Maps
Robust Vehicle Localization in Urban Environments Using Probabilistic MapsRobust Vehicle Localization in Urban Environments Using Probabilistic Maps
Robust Vehicle Localization in Urban Environments Using Probabilistic Maps
 
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
 
2015年度GPGPU実践プログラミング 第13回 多粒子の運動
2015年度GPGPU実践プログラミング 第13回 多粒子の運動2015年度GPGPU実践プログラミング 第13回 多粒子の運動
2015年度GPGPU実践プログラミング 第13回 多粒子の運動
 
2015年度GPGPU実践プログラミング 第14回 N体問題
2015年度GPGPU実践プログラミング 第14回 N体問題2015年度GPGPU実践プログラミング 第14回 N体問題
2015年度GPGPU実践プログラミング 第14回 N体問題
 
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
 

Andere mochten auch

エピポーラ幾何 (Epipolar geometry)
エピポーラ幾何 (Epipolar geometry)エピポーラ幾何 (Epipolar geometry)
エピポーラ幾何 (Epipolar geometry)Shohei Mori
 
Image-Based Rendering 各手法の直感的理解
Image-Based Rendering各手法の直感的理解Image-Based Rendering各手法の直感的理解
Image-Based Rendering 各手法の直感的理解Shohei Mori
 
第2回cv勉強会@九州 LSD-SLAM
第2回cv勉強会@九州   LSD-SLAM第2回cv勉強会@九州   LSD-SLAM
第2回cv勉強会@九州 LSD-SLAMSatoshi Fujimoto
 
ピンホールカメラモデル
ピンホールカメラモデルピンホールカメラモデル
ピンホールカメラモデルShohei Mori
 
カメラ位置姿勢とビュー行列
カメラ位置姿勢とビュー行列カメラ位置姿勢とビュー行列
カメラ位置姿勢とビュー行列Shohei Mori
 
CVPR2016 Fitting Surface Models to Data 抜粋
CVPR2016 Fitting Surface Models to Data 抜粋CVPR2016 Fitting Surface Models to Data 抜粋
CVPR2016 Fitting Surface Models to Data 抜粋sumisumith
 
Meanshift Tracking Presentation
Meanshift Tracking PresentationMeanshift Tracking Presentation
Meanshift Tracking Presentationsandtouch
 
CVPR2013の論文紹介(車載カメラ関連)
CVPR2013の論文紹介(車載カメラ関連)CVPR2013の論文紹介(車載カメラ関連)
CVPR2013の論文紹介(車載カメラ関連)Ken Sakurada
 
Jetson TK1でSemi-Global Matching
Jetson TK1でSemi-Global MatchingJetson TK1でSemi-Global Matching
Jetson TK1でSemi-Global MatchingRyo Sakamoto
 
20150328 cv関東勉強会 sumisumithパート_v1.3
20150328 cv関東勉強会 sumisumithパート_v1.320150328 cv関東勉強会 sumisumithパート_v1.3
20150328 cv関東勉強会 sumisumithパート_v1.3sumisumith
 
Dieter Schmalsteig (TU Graz) Review of ISMAR research
Dieter Schmalsteig (TU Graz) Review of ISMAR research Dieter Schmalsteig (TU Graz) Review of ISMAR research
Dieter Schmalsteig (TU Graz) Review of ISMAR research AugmentedWorldExpo
 
Kernel Bayes Rule
Kernel Bayes RuleKernel Bayes Rule
Kernel Bayes RuleYan Xu
 
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量takaya imai
 
Building VR Applications For Google Cardboard
Building VR Applications For Google CardboardBuilding VR Applications For Google Cardboard
Building VR Applications For Google CardboardMark Billinghurst
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15Yoichi Ochiai
 

Andere mochten auch (19)

エピポーラ幾何 (Epipolar geometry)
エピポーラ幾何 (Epipolar geometry)エピポーラ幾何 (Epipolar geometry)
エピポーラ幾何 (Epipolar geometry)
 
Image-Based Rendering 各手法の直感的理解
Image-Based Rendering各手法の直感的理解Image-Based Rendering各手法の直感的理解
Image-Based Rendering 各手法の直感的理解
 
第2回cv勉強会@九州 LSD-SLAM
第2回cv勉強会@九州   LSD-SLAM第2回cv勉強会@九州   LSD-SLAM
第2回cv勉強会@九州 LSD-SLAM
 
ピンホールカメラモデル
ピンホールカメラモデルピンホールカメラモデル
ピンホールカメラモデル
 
[Gpg1권]skinning
[Gpg1권]skinning[Gpg1권]skinning
[Gpg1권]skinning
 
カメラ位置姿勢とビュー行列
カメラ位置姿勢とビュー行列カメラ位置姿勢とビュー行列
カメラ位置姿勢とビュー行列
 
CVPR2016 Fitting Surface Models to Data 抜粋
CVPR2016 Fitting Surface Models to Data 抜粋CVPR2016 Fitting Surface Models to Data 抜粋
CVPR2016 Fitting Surface Models to Data 抜粋
 
Ismar2014 report
Ismar2014 report Ismar2014 report
Ismar2014 report
 
Meanshift Tracking Presentation
Meanshift Tracking PresentationMeanshift Tracking Presentation
Meanshift Tracking Presentation
 
CVPR2013の論文紹介(車載カメラ関連)
CVPR2013の論文紹介(車載カメラ関連)CVPR2013の論文紹介(車載カメラ関連)
CVPR2013の論文紹介(車載カメラ関連)
 
Jetson TK1でSemi-Global Matching
Jetson TK1でSemi-Global MatchingJetson TK1でSemi-Global Matching
Jetson TK1でSemi-Global Matching
 
20150328 cv関東勉強会 sumisumithパート_v1.3
20150328 cv関東勉強会 sumisumithパート_v1.320150328 cv関東勉強会 sumisumithパート_v1.3
20150328 cv関東勉強会 sumisumithパート_v1.3
 
Ismar 2016 Presentation
Ismar 2016 PresentationIsmar 2016 Presentation
Ismar 2016 Presentation
 
Dieter Schmalsteig (TU Graz) Review of ISMAR research
Dieter Schmalsteig (TU Graz) Review of ISMAR research Dieter Schmalsteig (TU Graz) Review of ISMAR research
Dieter Schmalsteig (TU Graz) Review of ISMAR research
 
Kernel Bayes Rule
Kernel Bayes RuleKernel Bayes Rule
Kernel Bayes Rule
 
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量
 
Building VR Applications For Google Cardboard
Building VR Applications For Google CardboardBuilding VR Applications For Google Cardboard
Building VR Applications For Google Cardboard
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15
 

Kürzlich hochgeladen

The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024koheioishi1
 
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料Tokyo Institute of Technology
 
世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム
世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム
世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラムKochi Eng Camp
 
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2Tokyo Institute of Technology
 
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料Takayuki Itoh
 
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ssusere0a682
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationYukiTerazawa
 
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~Kochi Eng Camp
 

Kürzlich hochgeladen (8)

The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
 
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
 
世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム
世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム
世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム
 
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
 
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
 
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
 
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
 

ISMAR2016まとめ

  • 2. Gaussian Light Field : Estimation of Viewpoint-Dependent Blur for Optical See-Through Head-Mounted Displays Y. Itoh, T. Amano, D. Iwai, and G. Klinker TUM, Wakayama Univ., Osaka Univ., and TUM ①「観測されたPSF-提案手法のPSF」「観測されたPSF- Baseline PSF」で類似度比較. PSNRで評価する.観測された PSFは実測データなのでパラメータ化されていないため,パラ メータ空間での比較は不可能.②ある画像を作り(図8 (a))そ れをOST-HMDに写して撮影(図8 (e)).これに対して,提案 手法等で合成した画像(図8 (f-h))を作り,図8 (e) と比較する. PSNRで評価. 眼球がディスプレイに正対しているという前提(回転は無視). 光学系は1つと想定(複数の組み合わせを想定していない). 実時間推定はできない(目指してもいないが…).カメラを 使った較正(実際の目ではない). [16] - [20]:著者らの過去の研究.特に[19]は今回の方法論に近い方法がと られているという点で注目!(3章の冒頭,最終段落を参照のこと) OST-HMDのための視点依存ボケLight Fieldのモデル化 (Gaussian Light Field; GLF) と推定.ぼけ量 (PSF) が推定でき るということは,既存手法でそれを補正することができるとい う主張.VR用のHMDのように収差の大きいHMDにも利用可. OST-HMDはディスプレイから目に届けるまでの光を操作する ための光学系の種類が様々でそれぞれのぼけに一度に対処する 方法はなく,視点(眼球位置)依存である.この両方を想定し た研究はなかった.提案手法はこの両方をGLFにより同時に解 決し,更には歪み補正も同時に行うことができる. 基本的には,著者らの前回の手法[19]を利用したという印象. LF+奥行き(入力,5次元データ)とPSF(出力)を対応付け たGLFをモデル化し,期待値最大(EM) 法で入出力を対応付け る関数を推定する.※EM法はココの図を見ると直感的理解が得られる. どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論文は? 2016/10/6 森尚平 GLFのイメージ図(位置に応じて ボケ量 (PSF) が異なる
  • 3. A Real-time Augmented Reality System to See-Through Cars Franc¸ois Rameau,Hyowon Ha, Kyungdon Joo, Jinsoo Choi, Kibaek Park, In So Kweon Electrical Engineering, Robotics and Computer Vision Lab, KAIST, Daejeon, Republic of Korea 通信速度の検証:前後の車両間で,「3D点群マップ(最大500 点)」,「透過領域の画像」,「後方車両の位置情報」を送信 し,通信速度・データ量を測定.車車間通信で利用される 9.2Mbits/sの帯域幅で送信可能なことを確認. ユーザスタディ:以下を実施「解像度の異なる結果画像を比較 させ,約95%の被験者が低解像度の場合でも大きな違和感がな いことを確認」,「透過領域で発生した事象を答えさせ,約 94%の被験者が正答したことを確認」. ベンチマークテスト:データセットを用いて,「(1) 位置姿勢 推定の誤差をVISO2[1]と比較」, 「(2) 前方車両をワイヤフ レームで表現した画像と透過処理後の画像の平均二乗誤差を比 較」 ,「(3) 解像度毎の視差画像のピーク信号対雑音比を計 算」.(1), (2) からトラッキング精度を確認,(3) から画質と速 度のトレードオフ関係を確認 [1] A. Geiger et al. : Dense 3d reconstruction in real-time. In IEEE Intelligent Vehicles Symposium (IV), 2011 自車両の前方にある車両をリアルタイムに透過する技術.前方 車両のステレオカメラで隠背景を3次元点群再構成し,3次元点 群に対して,自車両の画像と2D-3Dのマッチングを行うことで, 自車両の位置姿勢を推定し,自車両位置からの透過画像を生成. 走行する2車両間においてリアルタイムのデータ通信を実現, かつ,マーカレスで動作する. やり取りするデータを「3D点群マップ(最大500点)」,「透 過領域の画像」,「両車両の位置情報」のみに絞り,両車両の コンピュータで並列処理することで,車車間の通信遅延を低減. 後方車両の位置推定において,点群に対してFASTで初期位置 推定を行い,以降,ピラミッドKLTによる位置の更新を行う. また,RANSAC-P3Pにより少ない特徴点量で計算し,毎フ レームごとの自車両位置のトラッキングを実現. どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 参考文献 2016/10/21 M1 平田遼太郎,B4 菊池裕太 キーワード:AR, collaborative vehicle, see-through, visual odometry, 2D-3D feature tracking
  • 4. Robust Keyframe-based Monocular SLAM for Augmented Reality H. Liu, G. Zhang, and H. Bao Zhejiang University, ISMAR2016 定性・定量的な比較評価.比較対象はORB-SLAM2,PTAM, LSD-SLAM,RDSLAM,SVO,DT-SLAMと主要なSLAM.全 部オープンソースでそれを使った. 定性評価:パラメータを変えたり,色々な動きをさせた. 定量評価:TUMデータセットを利用.キーフレームのRMSE, 開始率(全フレーム/初期化フレームインデックス:トラッキ ング開始の速さに相当),初期化後のトラッキング成功率. テクスチャがない,もしくは繰り返しパターンがあるシーンで は失敗する.これは,IMUで解決できる.将来的にLSD-SLAM の様なアプローチをとる予定. 実験で比較対象となっている手法. 速い動きや回転に頑健なSLAM (RKSLAM) の提案. 既存のSLAMでは破たんするような速い動きや回転でも破たん しない.ビジョンだけでなく,IMUも利用可. PTAMを代表とするSLAMは,メインのトラッキングスレッド とバックグラウンドで走るマッピングスレッドに分かれている. RKSLAMでは,速い動きに対処するため,速く処理できるロー カルマップをメインスレッドに保持し,処理・参照できる. グローバルマップとローカルマップ:前者は最低でも2回以上 観測された点のための処理で,PTAM等と同じもの.後者は最 低でも1回以上観測された点のための処理で,複数の近傍フ レームを使い,メインのスレッドで処理される. 3種のホモグラフィ別に計算:画像全体,画像の一部,3次元空 間中の平面. どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論文は? 2016/11/2 PD 森尚平 Keywords:Multi-homography, sliding-window local map expansion and optimization framework Figure 5dより. IMUを使ったRKSLAMの結果.← ← 3種のホモグラフィを利用
  • 5. Robust Keyframe-based Monocular SLAM for Augmented Reality H. Liu, G. Zhang, and H. Bao Zhejiang University, ISMAR2016 Foreground Thread(メインのスレッド) ・FASTコーナー検出 ・グローバルホモグラフィ計算 ・グローバルと特定平面からのホモグラフィで2D-3D対応取得 ・PTAMのトラッキングクオリティ判断の処理 (良い,プア,悪いに判別される) ・良ければキーフレーム追加などを行う (大きな平行移動はプアか悪いになる) - プア の 場合 :ほ と んど の 点は まだ 信 頼で き る (well constrained) のでローカルホモグラフィで他の特徴点を再 びマッチングするようにする - 悪いの場合,PTAMの破たん復帰処理を実行.復帰したら グローバルホモグラフィの処理からやり直す Background Thread(バックグラウンドで走るスレッド) ・キーフレームを追加するとバックグラウンドで3次元点を 推定するローカルバンドル調整が行われる.その点から既存 の平面を拡張したり新たな平面が得られたりする ・ループクローズを見つけてグローバルバンドル調整でループ クローズする.ループクローズの検出は破たん復帰と同じ処 理でキーフレームを検出することで行う. ※キーフレーム選択,破たん復帰処理,ループクローズは独立 の処理なので,別のもっと良い手法に置き換えても良い. アルゴリズム(主に3章より) 2016/11/2 PD 森尚平
  • 6. Leveraging the User’s Face for Absolute Scale Estimation in Handheld Monocular SLAM Sebastian B. Knorr and Daniel Kurz ??? スケールの決定にマーカーを使った場合とユーザの顔を使った 場合でスケールの正確性を検証した. スケールを推定するときに顔を動かさないようにする必要があ る.将来的には顔がシーンに対して動いていないときを検出し てスケールを測定したい. 特になし. スマホのようなデバイスを用いて,内向きカメラでユーザの顔 を撮影しながら同時に外向きカメラでSLAMをすることで,単 眼(?)SLAMで絶対スケールを推定できる.(図.b) キャリブレーションボードなどスケール既知のものがなくても, 顔の大きさから絶対スケールを推定できるっていうアイデアと 実装 内向きカメラの画像U→(顔の大きさは既知として絶対スケール で)→内向きカメラのpose→(内向きカメラから外向きカメラへ のRとt)→外向きカメラのpose 以上のように求められたposeから得られた複数のキーフレー ムから3次元復元する.(図.c) どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論文は? 2016/10/11 B4 鶏内朋也 (a) (b) (c)
  • 7. 2016/10/21 M1 石橋朋果 Instant Mixed Reality Lighting from Casual Scanning Thomas Richter-Trummer1,2, Denis Kalkofen1, Jinwoo Park3, and Dieter Schmalstieg1 1Graz University of Technology, 2Bongfish GmbH, 3Korea Advanced Institute of Science and Technology 様々な照明条件下において,いくつかの対象物に対して提案手 法を適用し,実物体である真値データと目視で比較した.提案 手法を適用する対象物は,拡散反射,鏡面反射の両方を含むも の,また鏡面反射はあまりなく,主に拡散反射をするものなど 様々なものを使用した. 静的なシーンのみを前提としているため,物体が移動したり, 形状が変化する物体には適用することできない.照明の指向性 が限定されている. [23] Perceptual global illumination cancellation in complex projection environments.←この手法のように,RGB色空間を使 用する代わりに,LAB色空間を使用して,物体の色情報を扱お うとしている. RGB-Dカメラを使用して,任意に取得した情報から,物体の 反射特性,入射光の両方を推定する.そして,実物体と同じ物 体を実環境にレンダリングし,リライティングを行うことがで きる. 様々な準備は必要なく,またカメラの動きを制限せずに,ユー ザが無作為に取得する情報を基に物体を再構成,反射率を求め ることにより,セルフシャドウ,鏡面反射の再現を行いリライ ティングすることで,高精度な結果を得ることができる. どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論文は? Kinectから取得した3次元情報を,物体ごとにメッシュを分割し, インバースレンダリングにより放射輝度伝搬を用いて入射光と物 体の反射特性を求める.そして,分割したテクスチャ付きメッ シュから,鏡面反射係数を求める.これらにより,リライティン グを行う. キーワードは? inverse rendering
  • 8. A Single Camera Image Based Approach for Glossy Reflections in Mixed Reality Applications Tobias Schwandt and Wolfgang Broll←PixMixの人 Ilmenau University of Technology 結果を主観的な目視により有効であるとし,処理時間が10フ レーム/秒というリアルタイム性があるため,MRにおいて有効 な手法であると確認した. カメラに直接面している滑らかで鏡のような表面は,正確に反 射を求めることができない可能性がある(c).光源を任意に推 定することができず,光源は上からシーンを照らす白色光のみ としている.拡散,反射用の環境マップは,カメラに映る情報 をコピーして作成しているため,正確ではない(b).1つのカメ ラしか使用しないため,そのカメラに映る範囲のシーンの変化 にしか対応できない.シーン内の実物体の材質の推定をしてい ない. [22] DynamicFusion: Reconstruction and tracking of non-rigid scenes in real-time.←この手法により,シーンの3次元再構成 の精度を上げることができるかもしれない.動物体のKinect Fusion. 従来のAR/MRに関する研究では,シーンの光源情報を取得する ために,鏡面球,複数のHDRカメラ,魚眼レンズ付きカメラを 使用している.しかしながら,提案手法では,1つの単眼RGB- Dカメラのみを用いて.リアルタイムで行うことができる. 手法のキモは,リアルタイムで行うために, screen-space ray- tracing を使用している.また,RGB-Dカメラから取得した3次 元モデルに穴が空いていることがあるため,RGB情報を利用し て,デプス情報にInpaintingを適用した後に,GIFという既存フィ ルタにかけて, screen-space ray-tracingを行うための法線ベク トルを取得する. どんなもの? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論文は? 単眼RGB-Dカメラを用いて,鏡のような光沢のある仮想物体 の反射を再現する手法を提案している(a).この手法により, MR時のカメラに映る範囲のシーンの変化を仮想物体に反映す ることができる. 先行研究と比べてどこがすごい? 2016/10/21 M1 石橋朋果 screen-space ray-tracing,screen-space reflections(SSR),Guided Image Filter (GIF) この論文を読むうえで重要なキーワードは? (a) (b) (c)
  • 9. An Empirical Model for Specularity Prediction with Application to Dynamic Retexturing Alexandre Morgand, Mohamed Tamaazousti, and Adrien Bartoli CEA, LIST, Vision & Content Engineering Lab / ISIT PhongとBlinn-Phongの反射モデルから合成したデータと,実 データを使用して,JOLIMASの精度を確認した.実データに は3種類の光源と,5種類の物体を用いた.実データのカメラ位 置姿勢はSLAMを使用.推定した円錐形とグランドトゥルース の輪郭をSturmの距離を用いてピクセル単位で比較した.また, 推定した鏡面反射をCGの物体に付与することでも確認した. 鏡面反射を観察する,また再現する物体の対象は,平面のみで 曲面に対する鏡面反射には対応できない. [10] Specular reflections and the perception of shape.←鏡面反 射の形状が,二次導関数と関連していることを示している論文. 再現が困難な電球や蛍光灯などの室内の光源による平面を持つ 物体の鏡面反射を推定するJOLIMASという経験的モデルを提 案している.JOLIMASにより任意の視点から鏡面反射をレン ダリングすることができる. 物体の鏡面反射をRGB-Dカメラを使用して測定したシーンの モデルから推定する手法はあるが,画像群から推定する手法は 存在しない. 鏡面反射を予測するために,カメラから得られた画像内の鏡面 反射を検出し,カメラから鏡面球に対しての円錐形を伸ばし, 多視点からの円錐形と重なる位置に二次曲面(図のQ)を推定 する.それを基に,透視投影を行い,任意の視点からの鏡面反 射を再現する.(中央の図) 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論文は? どんなもの? 2016/10/21 M1 石橋朋果 JOLIMAS (JOint LIght-MAterial Specularity),Phong,Blinn-Phong この論文を読むうえで重要なキーワードは?
  • 10. Edge Snapping-Based Depth Enhancement for Dynamic Occlusion Handling in Augmented Reality Chao Du, Yen-Lin Chen, Mao Ye, and Liu Ren University of Kentucky, Bosch Research, Bosch Research, and Bosch Research 距離画像をバイラテラルフィルタを用いて補正した場合と, 提案手法を用いた場合での結果を比較し,評価. 3シーンにおいて,提案手法を用いて,仮想物体と実物体のオ クルージョン対処を行い,先行研究と比較し,結果が改善され ていることを確認. シーン内の物体同士の色の特徴が似ている場合は,物体の境界 線にエッジが強く発生しないため,うまくいかないことがある. 複雑なシーンの場合,エッジが多く発生するため,距離画像と RGB画像でエッジの対応が取れない可能性がある. [4] [S.Dong et al., Journal of Computing in Civil Engineering]: AR時にリアルタイムでオクルージョンに対処する方法に関す る先行研究. AR時に,仮想物体と現実物体のオクルージョンを動的なシー ンに対しても対処できるアルゴリズムの開発を行った研究 これまでにも距離画像センサを用いてオクルージョンに対処す る研究は行われてきたが,距離画像センサの精度の問題により, エッジ部分に歪みが発生する.この研究では,距離情報を RGB画像を用いて補正することで,この歪みを抑えたオク ルージョン対処を行っている 距離画像とRGB画像それぞれのエッジの情報を利用し,距離 画像では歪みが発生したエッジを補正している. 具体的には,距離画像による物体のエッジを点に分け,図2の ように,距離情報のエッジである赤線上の緑の点を,物体の エッジである紫色の点に補正し,距離画像のエッジの補正を 行っている どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論文は? 2016/10/21 B4 堀田勝 キーワード 図2 補正のイメージ図 Occlusion Handling, Depth Enhancement, Edge Snapping 歪み発生 動画 https://vimeo.com/178817780 実行結果や,アルゴリズムの説明
  • 11. Learning to Fuse: A Deep Learning Approach to Visual-Inertial Camera Pose Estimation Jason Rambach, Aditya Tewari, Alain Pagani, Didier Stricker German Research Center for Artificial Intelligence Deep Neural Networkに前回のフレームのカメラ位置姿勢,今 回のフレームでセンサからえられた角度,加速度センサの値を 入力しカメラ位置姿勢を推定.同時に特徴点ベースのトラッキ ングによりカメラ位置姿勢を推定しそれらの結果を最適化. Deep Neural Networkを画像,センサの両方を使用したトラッ キング手法に応用した初めての手法.センサに乗るノイズを Deep Neural Networkが勝手に吸収してくれるため,角度,加 速度センサに対する既存のノイズ削減手法を用いる必要がない. カメラとセンサのfpsの差を活用し,Deep Neural Networkの入 力を増加.カルマンフィルタにより,画像のみを用いたトラッ キングによるカメラ位置姿勢推定結果とDeep Neural Network による推定結果をマージ.その結果を次フレームのDeep Neural Networkの入力の一部としフィードバック処理. どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? 2016/10/11 M1 中島 由勝 学習: 事前にカメラ位置姿勢のGround Truthを元にDeep Neural Networkを学習.実験: 平面パターンを机に置きトラッキング. Ground Truthは机に設置したマーカにより取得.速くカメラが 動いた場合と遅く動いた場合の2シーンで実験.画像のみを用 いたトラッキングによる推定結果と比較. センサを用いた他のトラッキング手法と比較したらどうなるの か.対象が平面以外の物体での実験は? 特になし どうやって有効だと検証した? 議論はある? 次に読むべき論文は? Keywords: Deep Neural Network, Camera Pose Estimation, Tracking, Sensor
  • 12. PPV: Pixel-Point-Volume Segmentation for Object Referencing in Collaborative Augmented Reality Kuo-Chin Lien, Benjamin Nuernberger, Tobias Hollerer, and Matthew Turk University of California, Santa Barbara ある視点で画面上に描いた2次元の円の中にある物体を異なる 視点から見た時にセグメンテーションできているかを提案手法 を含めた3手法で比較した.Amazon Mechanical Turkを使っ て,どの手法の処理結果の画像が最も良い結果かを約160人に 選んでもらった. ユーザの入力(囲み方)によっては,不要な背景部分も含めて セグメントされてしまうことがある(右の図). オーバーセグメンテーション ・VCCS algorithm [20] (CVPR 2013) 実験で比較対象となっている手法 ・Median depth plane [4] (VRST 2014) ・2D-3D co-segmentation [18] (3DUI 2016) うめうめ うめうめ ピクセル,3次元点,スーパーボクセルからなるThree-layer graphに対してグラフカットを行う.ある点の色尤度・局所確率, ピクセルレイヤ,スーパーボクセルレイヤ,クロスレイヤエッジ に関する4つのインジケータ関数の和が最小になるようにしてい る.VCCS (Voxel Cloud Connectivity Segmentation) algorithmを採用して,3次元点と逆投影した2次元ピクセルが存 在する空間を効率よくオーバーセグメント化している. どうやって有効だと検証した? 議論はある? 次に読むべき論文は? ユーザが画面上に描いた2次元の円の中にある物体を3次元的 にセグメンテーションする. 先行研究と異なり,目的の物体が平面的である必要はなく,綺 麗に分離するための慎重なスキャンも必要ない.同じフレーム ワークでoutside-in/inside-outのシーン,また,凸面・平面オ ブジェクトの両方を処理することができる. どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? キーワード:Three-layer graph, Segmentation 2016/11/14 M2 松見優一
  • 13. Augmented Reality 3D Discrepancy Check in Industrial Appliocation Oliver Wasenmuller, Marcel Meyer, and Didier Stricker DFKI – German Research Center for Artificial Intelligence CoRBSベンチマークとICL-NUMベンチマークを用いて3つの項 目を評価①再構成の精度の高さを4つの既存手法と比較評価 ② 参照モデルと再構成モデルの位置合わせの正確さを評価③2つ のモデルのずれの検出の正確さを評価. また各処理にかかった時間を計測して処理時間を評価 参照モデルと再構成モデルの位置合わせに幾何学的な特徴点し か使うことができず,色やテクスチャといった情報を特徴点と して利用できない. R. B. Rusu, N. Blodow, and M. Beetz. Fast point feature histograms (fpfh) for 3D registration. In IEEE International Conference on Robotics and Automation (ICRA), pages 3212– 3217. IEEE, 2009.←位置合わせに使用した特徴抽出に関する論文 RGB-Dカメラを用いて3次元再構成し,再構成モデル(Voxel データ)と参照モデルを位置合わせ,2つのモデルのずれ量を 検出する.これらの処理をリアルタイムかつ高精度に行ってい る.工場などでの実利用を想定. 再構成マッピングの精度が高い.参照モデルと再構成モデルの 位置合わせを高速に行うことができる新しい半自動位置合わせ アルゴリズム.参照モデルと再構成モデルのずれ量の計算を正 確,高速に計算している. 高精度な再構成のためにRGB-Dカメラの光軸中心に近い画素 だけ利用し,再構成モデルを高精度に作成 ①特徴を用いて2つのモデルを粗く揃える②ICPを用いて正確 にそろえる.この2つの処理をユーザがタイミングを指定でき る半自動位置合わせアルゴリズム. VDBボクセル構造を用いた距離計算による高速なずれ検出. どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論文は? 2016/10/21 B4 両角泰希 キーワード:ボクセル,Iterative Closet Point(ICP),VDB
  • 14. EyeAR: Empiric Evaluation of Refocusable Augmented Reality System Aitor Rovira*1, Rompapas Damien Constantine*1, Christian Sandor*1, Takafumi Taketomi*1, Hirokazu Kato*1, and Sei Ikeda*2 *1Nara Institute of Science and Technology and *2Ritsumeikan University オプティカルシースルーシステムであること,カメラのパラ メータを使う代わりにユーザの目を計測して利用すること. また,LFDのアプローチとの違いは,関連するサブセットの中 でディスプレイしか使用していないこと. 焦点深度の違いを正しく修正するために,それぞれの柱と半透 明ディスプレイとの距離が重要となってくる.また,オートレ フケラトメータを使うと,仮想の柱を見抜きやすくなると考え られ,被験者の学習効果や性別によっては仮想の柱が見抜きに くくなる場合もある. [D. Constantine Rompapas et al., IEEE ISMAR 2015] [P. Kan et al., Eurographics 2012] 人の目を測定し,それに基づいてリフォーカスすることができ るディスプレイ.オートレフケラトメーターを用いて近視・遠 視・乱視などの有無や程度を測定し数値化し,その値を基に MRのシーンを構成する.DemoではそれをMicrosoft Hololens で体験でき,Posterではプロトタイプの有用性を確認した. ユーザからそれぞれ異なる距離にある赤・青・緑の柱(うち1つ は仮想)を用意し,それを被験者に見せ,どの色が仮想の柱か を当ててもらうテストをした.それを以下の2つの仮説のもと 検証した.【①オートレフケラトメーターがオンのとき,被験 者はどれが仮想の柱か分からずに選ぶはずだろう②オートレフ ケラトメータがオフのとき,オンのときよりも正解率が上がる だろう】オンとオフの場合を調べ,結果的には,仮想の青い柱 と実物の青い柱を区別することができないという結果になった. どんなもの? どうやって有効だと検証した? 先行研究と比べてどこがすごい? 議論はある? 次に読むべき論文は? 2016/10/21 B4 松永知典 EyeAR (Poster) (Demo) EyeAR: Refocusable Augmented Reality Content through Eye Measurements Rompapas Damien Constantine*1, Aitor Rovira*1, Sei Ikeda*2, Alexander Plopski*1, Takafumi Taketomi*1, Christian Sandor*1, and Hirokazu Kato*1 *1Nara Institute of Science and Technology and *2Ritsumeikan University Near-eye LFD Keywords: Raytracing / Augmented Reality / Physically Based AR / Depth of Field / Optical Defocus
  • 15. Improving Localization under Varying Illumination Alexander Plopski, Tomohiro Mashita, Akira Kudo, Tobias Hoellerer, Kiyoshi Kiyokawa, Haruo Takemura Nara Institute of Science and Technology, Osaka University, University of California 提案手法で構築したデータベースを使用したユークリッド距離 によるマッチング手法とマハラノビス距離を用いたマッチング 手法で自己位置推定を行い,評価実験を行った.結果,マハラ ノビス距離を利用した手法は,ユークリッド距離を使用した場 合に比べて処理時間が大きくなってしまうが,少ない特徴点数 で精度の高い自己位置推定を行うことができることがわかった. 従来手法と比べて提案手法のほうが処理時間は大きい.マハラ ノビス距離の計算に用いる主成分の数を少なくすることで処理 時間はある程度改善されるが,これは推定の安定性とトレード オフの関係にある. 工藤彰 , Alexander Plopski, Tobias Hollerer, 間下以大 , 清 川清 , 竹村治雄 . 異なる光源環境における画像特徴の頑健性 の調査 . 研究報告コンピュータビジョンとイメージメディ ア( CVIM ) , Vol. 2015, No. 65, pp. 1–5, jan 2015. 屋外拡張現実における自己位置推定のためのデータベース構築 方法と異なる光源環境における各特徴点の分散を考慮したマハ ラノビス距離の考えを導入したマッチング手法を提案した. CG モデルを構築し,様々な光源をバーチャル空間でシミュ レーションすることで,より多様な特徴点を抽出したデータ ベースを構築した.マハラノビス距離を用いることで全ての データを参照することなく効率的に特徴点の対応付けが可能. 巨大なデータベースを構築して直接参照するのではなく,各特 徴点の位置毎に光源環境の変化を表現するパラメトリックモデ ルを設定し,特徴点のマッチングをそのモデルに対して行うこ とで,データベースの特徴点数に依存しない特徴点マッチング を行う. どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論文は? 2016/10/23 M1 QIE JIANING キーワード:屋外の位置合わせ,マハラノビス距離,パラメトリックモデル (Poster)
  • 16. Use of Random Dot Patterns for Achieving X-Ray Vision with Stereoscopic Augmented Reality Displays Sanaz Ghasemi, Mai Otsuki, and Paul Milgram University of Toronto, University of Tsukuba, University of Toronto ランダムドットの大きさと密度を変えて被験者実験を行い, (a)実物の表面の情報が欠落しているか,(b)透明度の知覚はど のくらいかを確かめた.(a)には信号検出理論,(b)にはサース トンの一対比較法を用いた. まだ評価のみに留まっており,今後は実行可能性や研究全体の 有効性について広げていきたい.実物とCGの距離を熟慮し,3 次元の異なる曲面の平面を持つソリッドな物体に描画すること を目指す. 視覚的なノイズについての論文 [4] V. Interrante, Illustrating Transparency: Communicating the 3D shape of layered transparent surfaces via texture, Unpublished Doctoral dissertation, Univ. North Carolina at Chapel Hill, 1996. 実物のうしろにCGがある時,実物の表面にランダムドットを 描画するとCGが実物の奥にあるように見える.このとき, ドットの大きさと密度をどのように変更すると表面の透明度を 保ちつつCGの透視ができるか確かめる. ①ランダムドットを添付すること,②実物の表面のテクス チャに依存しないこと,③すべてステレオのディスプレイを用 いること 同じ研究グループの過去の研究とは異なり,CGをランダム ドットで上書きしないようにしている.これは,両眼視差とオ クルージョンという奥行き手がりをお互いに衝突させないため である.また,ステレオの画像から奥行き情報を取得し,テク スチャを描画する位置を決めている. どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論文は? キーワード:両眼立体視,透過表現,X-ray Vision 2016/10/25 M2 松木ひとみ 追加資料 (ステレオ画像) (Poster)