SlideShare ist ein Scribd-Unternehmen logo
1 von 19
1
DEEP LEARNING JP
[DL Papers]
http://deeplearning.jp/
Decoupling Human and Camera Motion from Videos in the
Wild (CVPR2023)
HiromuTaketsugu, Ukita Lab B4
書誌情報
• タイトル:Decoupling Human and Camera Motion from Videos in
the Wild
• Project Page:https://vye16.github.io/slahmr/
• arXiv: https://arxiv.org/abs/2302.12827
• Github: https://github.com/vye16/slahmr
• 著者: Vickie Ye Georgios Pavlakos Jitendra Malik Angjoo
Kanazawa
– カリフォルニア大学バークレー校
– PixelNeRF等の著者陣(Ye, Kanazawa)
• CVPR2023採択論文
2
概要
3
• 人物を写した動画から人物とカメラの世界座標系での軌跡を同時に推定する
SLAHMR (Simultaneous Localization and Human Mesh Recovery)を提
案(右上)
概要
4
• SLAHMR (Simultaneous Localization And Human Mesh Recovery)
– Not SLAM (Simlutaneous Localization And Mapping)
– 新規性:Human Mesh Recoveryをカメラ位置を推定しながら行えるようにした
• HMR (Human Mesh Recovery):
– 単眼カメラで撮影した2D画像から3Dモデル(人物姿勢+形状)を復元するタスク
概要
• 全体的な流れ(入力:動画,出力:人物とカメラの軌跡)
– Initialization: SfMでカメラ位置,Pose Trackingで人物姿勢とIDを推定
– Minimize (Optimization): 動作の自然さなどを基にエネルギー関数を最小化
5
概要
• 全体的な流れ(入力:動画,出力:人物とカメラの軌跡)
– Initialization: SfMでカメラ位置,Pose Trackingで人物姿勢とIDを推定
– Minimize (Optimization): 動作の自然さなどを基にエネルギー関数を最小化
6
手法(Initializationフェーズ)
• カメラモーションの取得(Localization):
– VSLAM手法のDROID-SLAM (NeurIPS2021)を用いてLocalizationし,動画全体にわ
たる相対的なカメラ位置を取得
7
手法(Initializationフェーズ)
• 3次元人物追跡(Human Mesh Recovery):
– Pose Tracking手法のPHALP (CVPR2022Oral) を用い,入力動画から各人物を識別
しつつ3次元人体姿勢を推定
8
概要
• 全体的な流れ(入力:動画,出力:人物とカメラの軌跡)
– Initialization: SfMでカメラ位置,Pose Trackingで人物姿勢とIDを推定
– Minimize (Optimization): 動作の自然さなどを基にエネルギー関数を最小化
9
手法(Optimizationフェーズ)
• Optimizationフェーズでは,InitializationフェーズでのVSLAM (DROID-
SLAM)とPose Tracking (PHALP) による出力結果から
– カメラのグローバル軌跡
– 人物のグローバル軌跡
を同時に最適化していく
• メインの最適化の前に,
– 初期化:推定した人物姿勢の座標を世界座標系に変換し人物を配置
• その後画像平面上に再投影し,元の推定キーポイント位置との再投影誤差を取る
– 平滑化:隣接フレーム間でのキーポイント位置変化をエネルギーに加味
• 動画内で人間の姿勢は滑らかに変化する
10
手法(Optimizationフェーズ)
• Human motion priorsの利用:
– 自然な動きになるように事前知識をエネルギー関数に盛り込む
– HuMoR (ICCV2021Oral) を利用:人物動作で学習済みのConditional VAE
– HuMoR: t-1の姿勢と動作遷移の確率分布を基にtの姿勢を修正する.
11
手法(Optimizationフェーズ)
• Human motion priorsの利用:
– 自然な動きになるように事前知識をエネルギー関数に盛り込む
– HuMoR (ICCV2021Oral) を利用:人物動作で学習済みのConditional VAE
– HuMoR: t-1の姿勢と動作遷移の確率分布を基にtの姿勢を修正する.
– HuMoRで事前学習済みの分布を利用して以下の項をエネルギー関数に追加
• 学習済みの分布においてt-1の状態から確率の低い動作遷移をするとエネルギーが増加
• 「人間動作としてより自然な動作遷移(→ 軌道)に近づけるよう最適化する
12
手法(Optimizationフェーズ)
• Human motion priorsの利用:
– HuMoRでは同時に床面の推定を行い,地面との接触確率cを推定している
13
手法(Optimizationフェーズ)
• Human motion priorsの利用:
– HuMoRでは同時に床面の推定を行い,地面との接触確率cを推定している
– これを利用し,以下の項をエネルギー関数に追加:
– 「地面と接触しているキーポイントの位置が変化すると不自然」
– 「キーポイントの高さが地面から閾値以上離れていると不自然」
– Last stageでは,前述の再投影誤差𝑬𝒑𝒐𝒔𝒆などと併せてこれらの項を足し合わ
せたエネルギー関数を最小化する.
14
実験結果
15
• EgoBodyでの定量評価(左:ablation,右:他手法比較):
– Optimizationのlast stage ()が良く効いている
– ベースラインのPHALPや他手法を大きく上回る性能を示した
概要
• 全体的な流れ(入力:動画,出力:人物とカメラの軌跡)
– Initialization: SfMでカメラ位置,Pose Trackingで人物姿勢とIDを推定
– Minimize (Optimization): 動作の自然さなどを基にエネルギー関数を最小化
16
実験結果
17
今後の課題
• Optimizationの所要時間の長さ:
– 「4人の人物を含む100フレームの動画を最適化するのに40分を要する」
– 人数,フレーム数ともに実応用ではより大規模な状況も想定され,速度面ではまだ
大きな課題が残る
• 単眼カメラの限界?:
– カメラの動きによっては軌跡を正しく取り出せない
• 例えば,カメラと人物が同方向に動き続けている場合に実行結果ではカメラと人物ともにその場
に留まり続けてしまうなど
– 背景の深度を入力/推定することでより良くなる?
18
まとめ・所感
• まとめ:
– 単眼カメラで撮影した動画から3次元メッシュ復元しつつ人物とカメラのグローバル軌
跡を推定するSLAHMRを提案
– 定量結果ではOptimizationのlast stage (motion prior等)がよく効いている
• 所感:
– 単眼カメラでの撮影にもかかわらず,PoseTrackのようなチャレンジングなデータセッ
トでここまでの結果が得られているのはすごい
• 従来手法との一番の違いはやはりカメラモーションを明示的に考慮したこと
• smoothingやfloor plane推定もベースラインとの印象の違いに寄与していそう
– ただし,速度の遅さは気になる
• Human-awareなシステムにするには速度の追求が必要そう
19

Weitere ähnliche Inhalte

Was ist angesagt?

Was ist angesagt? (20)

【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル
 
20160724_cv_sfm_revisited
20160724_cv_sfm_revisited20160724_cv_sfm_revisited
20160724_cv_sfm_revisited
 
SfM Learner系単眼深度推定手法について
SfM Learner系単眼深度推定手法についてSfM Learner系単眼深度推定手法について
SfM Learner系単眼深度推定手法について
 
【DL輪読会】StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery
【DL輪読会】StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery【DL輪読会】StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery
【DL輪読会】StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery
 
深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎
 
SLAM勉強会(PTAM)
SLAM勉強会(PTAM)SLAM勉強会(PTAM)
SLAM勉強会(PTAM)
 
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
 
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
 
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
 
動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセット動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセット
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
 
ORB-SLAMの手法解説
ORB-SLAMの手法解説ORB-SLAMの手法解説
ORB-SLAMの手法解説
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
20210711 deepI2P
20210711 deepI2P20210711 deepI2P
20210711 deepI2P
 

Ähnlich wie 【DL輪読会】Decoupling Human and Camera Motion from Videos in the Wild (CVPR2023)

Ähnlich wie 【DL輪読会】Decoupling Human and Camera Motion from Videos in the Wild (CVPR2023) (7)

[DL輪読会]Human Dynamics from Monocular Video with Dynamic Camera Movements
[DL輪読会]Human Dynamics from Monocular Video with Dynamic Camera Movements[DL輪読会]Human Dynamics from Monocular Video with Dynamic Camera Movements
[DL輪読会]Human Dynamics from Monocular Video with Dynamic Camera Movements
 
20150414seminar
20150414seminar20150414seminar
20150414seminar
 
[DLHacks 実装] DeepPose: Human Pose Estimation via Deep Neural Networks
[DLHacks 実装] DeepPose: Human Pose Estimation via Deep Neural Networks[DLHacks 実装] DeepPose: Human Pose Estimation via Deep Neural Networks
[DLHacks 実装] DeepPose: Human Pose Estimation via Deep Neural Networks
 
[DL輪読会]End-to-end Recovery of Human Shape and Pose
[DL輪読会]End-to-end Recovery of Human Shape and Pose[DL輪読会]End-to-end Recovery of Human Shape and Pose
[DL輪読会]End-to-end Recovery of Human Shape and Pose
 
End-to-end Recovery of Human Shape and Pose
End-to-end Recovery of Human Shape and PoseEnd-to-end Recovery of Human Shape and Pose
End-to-end Recovery of Human Shape and Pose
 
B3スタートアップ コンピュータビジョンの現在と未来にやるべきこと(東京電機大学講演)
B3スタートアップ コンピュータビジョンの現在と未来にやるべきこと(東京電機大学講演)B3スタートアップ コンピュータビジョンの現在と未来にやるべきこと(東京電機大学講演)
B3スタートアップ コンピュータビジョンの現在と未来にやるべきこと(東京電機大学講演)
 
関西Cvprml勉強会2017.9資料
関西Cvprml勉強会2017.9資料関西Cvprml勉強会2017.9資料
関西Cvprml勉強会2017.9資料
 

Mehr von Deep Learning JP

Mehr von Deep Learning JP (20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 

Kürzlich hochgeladen

Kürzlich hochgeladen (12)

LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 

【DL輪読会】Decoupling Human and Camera Motion from Videos in the Wild (CVPR2023)

Hinweis der Redaktion

  1. ここでのPHALPはSfMによるカメラモーションの推定を行わない,シンプルな単眼カメラからの3次元姿勢推定+メッシュ復元
  2. ここでのPHALPはSfMによるカメラモーションの推定を行わない,シンプルな単眼カメラからの3次元姿勢推定+メッシュ復元