Suche senden
Hochladen
はじめようARCore: Motion Tracking & Image Tracking編
•
3 gefällt mir
•
4,524 views
T
Takashi Yoshinaga
Folgen
7/21に開催した勉強会の資料
Weniger lesen
Mehr lesen
Technologie
Melden
Teilen
Melden
Teilen
1 von 112
Empfohlen
ノンプログラミングで始めるAR (HoloLens 2 / ARCore / ARKit) 開発 with MRTK
ノンプログラミングで始めるAR (HoloLens 2 / ARCore / ARKit) 開発 with MRTK
Takashi Yoshinaga
A-Frameで始めるWebXRとハンドトラッキング (HoloLens2/Oculus Quest対応)
A-Frameで始めるWebXRとハンドトラッキング (HoloLens2/Oculus Quest対応)
Takashi Yoshinaga
はじめようARCore:自己位置推定・平面検出・FaceTracking
はじめようARCore:自己位置推定・平面検出・FaceTracking
Takashi Yoshinaga
World Locking Tools V1.0.0について~ 機能と導入 ~
World Locking Tools V1.0.0について~ 機能と導入 ~
Takahiro Miyaura
【準備編】OculusQuest/HoloLens2対応WebXR開発
【準備編】OculusQuest/HoloLens2対応WebXR開発
Takashi Yoshinaga
MRTKをNreal Lightに対応させてみた
MRTKをNreal Lightに対応させてみた
Takashi Yoshinaga
Azure Spatial Anchorについて少し調べた話
Azure Spatial Anchorについて少し調べた話
Takahiro Miyaura
UnityとVuforiaで始めるAR開発
UnityとVuforiaで始めるAR開発
Takashi Yoshinaga
Empfohlen
ノンプログラミングで始めるAR (HoloLens 2 / ARCore / ARKit) 開発 with MRTK
ノンプログラミングで始めるAR (HoloLens 2 / ARCore / ARKit) 開発 with MRTK
Takashi Yoshinaga
A-Frameで始めるWebXRとハンドトラッキング (HoloLens2/Oculus Quest対応)
A-Frameで始めるWebXRとハンドトラッキング (HoloLens2/Oculus Quest対応)
Takashi Yoshinaga
はじめようARCore:自己位置推定・平面検出・FaceTracking
はじめようARCore:自己位置推定・平面検出・FaceTracking
Takashi Yoshinaga
World Locking Tools V1.0.0について~ 機能と導入 ~
World Locking Tools V1.0.0について~ 機能と導入 ~
Takahiro Miyaura
【準備編】OculusQuest/HoloLens2対応WebXR開発
【準備編】OculusQuest/HoloLens2対応WebXR開発
Takashi Yoshinaga
MRTKをNreal Lightに対応させてみた
MRTKをNreal Lightに対応させてみた
Takashi Yoshinaga
Azure Spatial Anchorについて少し調べた話
Azure Spatial Anchorについて少し調べた話
Takahiro Miyaura
UnityとVuforiaで始めるAR開発
UnityとVuforiaで始めるAR開発
Takashi Yoshinaga
バーチャルライブ配信アプリREALITYの3Dアバターシステムの全容について
バーチャルライブ配信アプリREALITYの3Dアバターシステムの全容について
gree_tech
HoloLens2とMeta QuestではじめるWebXR
HoloLens2とMeta QuestではじめるWebXR
Takashi Yoshinaga
ARコンテンツ作成勉強会:UnityとVuforiaではじめるAR [主要部分]
ARコンテンツ作成勉強会:UnityとVuforiaではじめるAR [主要部分]
Takashi Yoshinaga
Unityでロボットの教師データは作れる!
Unityでロボットの教師データは作れる!
UnityTechnologiesJapan002
OpenXR + XR Interaction Toolkit使ったHoloLensコンテンツ開発検証 ~ (私が)完全に理解できたらちゃんと作れて、いろ...
OpenXR + XR Interaction Toolkit使ったHoloLensコンテンツ開発検証 ~ (私が)完全に理解できたらちゃんと作れて、いろ...
Takahiro Miyaura
はじめようARCore in 札幌
はじめようARCore in 札幌
Takashi Yoshinaga
土石流シミュレーション結果と 3D都市モデルを組み合わせて Unityで可視化する
土石流シミュレーション結果と 3D都市モデルを組み合わせて Unityで可視化する
裕規 山本
【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオン
【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオン
Takashi Yoshinaga
Azure Object Anchors のQuick Startで理解を深めたい
Azure Object Anchors のQuick Startで理解を深めたい
Takahiro Miyaura
Way-Findingをやってやった ~ Azure Spatial Anchorsでね~
Way-Findingをやってやった ~ Azure Spatial Anchorsでね~
Takahiro Miyaura
Immersal を活用した AR クラウドなシステム開発とハンズオン!
Immersal を活用した AR クラウドなシステム開発とハンズオン!
NishoMatsusita
MRTK3を調べてみた
MRTK3を調べてみた
Takahiro Miyaura
OpenVRやOpenXRの基本的なことを調べてみた
OpenVRやOpenXRの基本的なことを調べてみた
Takahiro Miyaura
xR Developerなら知っておきたいカメラの基礎知識
xR Developerなら知っておきたいカメラの基礎知識
Satoshi Maemoto
今改めて見る Plane finding
今改めて見る Plane finding
Takahiro Miyaura
Mixed Reality Toolkit V3について
Mixed Reality Toolkit V3について
Takahiro Miyaura
【続】OpenXRでHoloLensアプリを作る
【続】OpenXRでHoloLensアプリを作る
Takahiro Miyaura
Hololens2 MRTK2.7(OpenXR) でのビルド環境構築(環境設定からビルドまで)
Hololens2 MRTK2.7(OpenXR) でのビルド環境構築(環境設定からビルドまで)
聡 大久保
Azure Spatial Anchors V2概要 ~空間情報の共有~
Azure Spatial Anchors V2概要 ~空間情報の共有~
Takahiro Miyaura
20211004 XRメタバース時代における触覚の役割について
20211004 XRメタバース時代における触覚の役割について
GREE VR Studio Lab
ARコンテンツ作成勉強会 in 宮崎: はじめようARCore
ARコンテンツ作成勉強会 in 宮崎: はじめようARCore
Takashi Yoshinaga
HoloLensハンズオン@ももち浜TECHカフェ vol.2
HoloLensハンズオン@ももち浜TECHカフェ vol.2
Takashi Yoshinaga
Weitere ähnliche Inhalte
Was ist angesagt?
バーチャルライブ配信アプリREALITYの3Dアバターシステムの全容について
バーチャルライブ配信アプリREALITYの3Dアバターシステムの全容について
gree_tech
HoloLens2とMeta QuestではじめるWebXR
HoloLens2とMeta QuestではじめるWebXR
Takashi Yoshinaga
ARコンテンツ作成勉強会:UnityとVuforiaではじめるAR [主要部分]
ARコンテンツ作成勉強会:UnityとVuforiaではじめるAR [主要部分]
Takashi Yoshinaga
Unityでロボットの教師データは作れる!
Unityでロボットの教師データは作れる!
UnityTechnologiesJapan002
OpenXR + XR Interaction Toolkit使ったHoloLensコンテンツ開発検証 ~ (私が)完全に理解できたらちゃんと作れて、いろ...
OpenXR + XR Interaction Toolkit使ったHoloLensコンテンツ開発検証 ~ (私が)完全に理解できたらちゃんと作れて、いろ...
Takahiro Miyaura
はじめようARCore in 札幌
はじめようARCore in 札幌
Takashi Yoshinaga
土石流シミュレーション結果と 3D都市モデルを組み合わせて Unityで可視化する
土石流シミュレーション結果と 3D都市モデルを組み合わせて Unityで可視化する
裕規 山本
【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオン
【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオン
Takashi Yoshinaga
Azure Object Anchors のQuick Startで理解を深めたい
Azure Object Anchors のQuick Startで理解を深めたい
Takahiro Miyaura
Way-Findingをやってやった ~ Azure Spatial Anchorsでね~
Way-Findingをやってやった ~ Azure Spatial Anchorsでね~
Takahiro Miyaura
Immersal を活用した AR クラウドなシステム開発とハンズオン!
Immersal を活用した AR クラウドなシステム開発とハンズオン!
NishoMatsusita
MRTK3を調べてみた
MRTK3を調べてみた
Takahiro Miyaura
OpenVRやOpenXRの基本的なことを調べてみた
OpenVRやOpenXRの基本的なことを調べてみた
Takahiro Miyaura
xR Developerなら知っておきたいカメラの基礎知識
xR Developerなら知っておきたいカメラの基礎知識
Satoshi Maemoto
今改めて見る Plane finding
今改めて見る Plane finding
Takahiro Miyaura
Mixed Reality Toolkit V3について
Mixed Reality Toolkit V3について
Takahiro Miyaura
【続】OpenXRでHoloLensアプリを作る
【続】OpenXRでHoloLensアプリを作る
Takahiro Miyaura
Hololens2 MRTK2.7(OpenXR) でのビルド環境構築(環境設定からビルドまで)
Hololens2 MRTK2.7(OpenXR) でのビルド環境構築(環境設定からビルドまで)
聡 大久保
Azure Spatial Anchors V2概要 ~空間情報の共有~
Azure Spatial Anchors V2概要 ~空間情報の共有~
Takahiro Miyaura
20211004 XRメタバース時代における触覚の役割について
20211004 XRメタバース時代における触覚の役割について
GREE VR Studio Lab
Was ist angesagt?
(20)
バーチャルライブ配信アプリREALITYの3Dアバターシステムの全容について
バーチャルライブ配信アプリREALITYの3Dアバターシステムの全容について
HoloLens2とMeta QuestではじめるWebXR
HoloLens2とMeta QuestではじめるWebXR
ARコンテンツ作成勉強会:UnityとVuforiaではじめるAR [主要部分]
ARコンテンツ作成勉強会:UnityとVuforiaではじめるAR [主要部分]
Unityでロボットの教師データは作れる!
Unityでロボットの教師データは作れる!
OpenXR + XR Interaction Toolkit使ったHoloLensコンテンツ開発検証 ~ (私が)完全に理解できたらちゃんと作れて、いろ...
OpenXR + XR Interaction Toolkit使ったHoloLensコンテンツ開発検証 ~ (私が)完全に理解できたらちゃんと作れて、いろ...
はじめようARCore in 札幌
はじめようARCore in 札幌
土石流シミュレーション結果と 3D都市モデルを組み合わせて Unityで可視化する
土石流シミュレーション結果と 3D都市モデルを組み合わせて Unityで可視化する
【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオン
【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオン
Azure Object Anchors のQuick Startで理解を深めたい
Azure Object Anchors のQuick Startで理解を深めたい
Way-Findingをやってやった ~ Azure Spatial Anchorsでね~
Way-Findingをやってやった ~ Azure Spatial Anchorsでね~
Immersal を活用した AR クラウドなシステム開発とハンズオン!
Immersal を活用した AR クラウドなシステム開発とハンズオン!
MRTK3を調べてみた
MRTK3を調べてみた
OpenVRやOpenXRの基本的なことを調べてみた
OpenVRやOpenXRの基本的なことを調べてみた
xR Developerなら知っておきたいカメラの基礎知識
xR Developerなら知っておきたいカメラの基礎知識
今改めて見る Plane finding
今改めて見る Plane finding
Mixed Reality Toolkit V3について
Mixed Reality Toolkit V3について
【続】OpenXRでHoloLensアプリを作る
【続】OpenXRでHoloLensアプリを作る
Hololens2 MRTK2.7(OpenXR) でのビルド環境構築(環境設定からビルドまで)
Hololens2 MRTK2.7(OpenXR) でのビルド環境構築(環境設定からビルドまで)
Azure Spatial Anchors V2概要 ~空間情報の共有~
Azure Spatial Anchors V2概要 ~空間情報の共有~
20211004 XRメタバース時代における触覚の役割について
20211004 XRメタバース時代における触覚の役割について
Ähnlich wie はじめようARCore: Motion Tracking & Image Tracking編
ARコンテンツ作成勉強会 in 宮崎: はじめようARCore
ARコンテンツ作成勉強会 in 宮崎: はじめようARCore
Takashi Yoshinaga
HoloLensハンズオン@ももち浜TECHカフェ vol.2
HoloLensハンズオン@ももち浜TECHカフェ vol.2
Takashi Yoshinaga
OpenCVでつくろうARスタンプアプリ in 熊本
OpenCVでつくろうARスタンプアプリ in 熊本
Takashi Yoshinaga
KinectでAR空間に入り込もう
KinectでAR空間に入り込もう
Takashi Yoshinaga
OpenCVで作るスタンプAR
OpenCVで作るスタンプAR
Takashi Yoshinaga
ノンプログラミングで始める AR 開発入門
ノンプログラミングで始める AR 開発入門
Takashi Yoshinaga
Nreal Lightハンズオン
Nreal Lightハンズオン
Takashi Yoshinaga
OpenCV/ARCore/Unityで作る塗り絵AR
OpenCV/ARCore/Unityで作る塗り絵AR
Takashi Yoshinaga
ARコンテンツ作成勉強会( #AR_Fukuoka )紹介
ARコンテンツ作成勉強会( #AR_Fukuoka )紹介
Takashi Yoshinaga
Ähnlich wie はじめようARCore: Motion Tracking & Image Tracking編
(9)
ARコンテンツ作成勉強会 in 宮崎: はじめようARCore
ARコンテンツ作成勉強会 in 宮崎: はじめようARCore
HoloLensハンズオン@ももち浜TECHカフェ vol.2
HoloLensハンズオン@ももち浜TECHカフェ vol.2
OpenCVでつくろうARスタンプアプリ in 熊本
OpenCVでつくろうARスタンプアプリ in 熊本
KinectでAR空間に入り込もう
KinectでAR空間に入り込もう
OpenCVで作るスタンプAR
OpenCVで作るスタンプAR
ノンプログラミングで始める AR 開発入門
ノンプログラミングで始める AR 開発入門
Nreal Lightハンズオン
Nreal Lightハンズオン
OpenCV/ARCore/Unityで作る塗り絵AR
OpenCV/ARCore/Unityで作る塗り絵AR
ARコンテンツ作成勉強会( #AR_Fukuoka )紹介
ARコンテンツ作成勉強会( #AR_Fukuoka )紹介
Mehr von Takashi Yoshinaga
AI x WebAR: MediaPipeのハンドトラッキングを使ってみよう
AI x WebAR: MediaPipeのハンドトラッキングを使ってみよう
Takashi Yoshinaga
iPad LiDARでエンジニアカフェを3Dスキャン
iPad LiDARでエンジニアカフェを3Dスキャン
Takashi Yoshinaga
AI x OpenCV x WebAR: Selfie Segmentationを使ってみよう
AI x OpenCV x WebAR: Selfie Segmentationを使ってみよう
Takashi Yoshinaga
Web技術ではじめようAR/VRアプリ開発
Web技術ではじめようAR/VRアプリ開発
Takashi Yoshinaga
Holo-SDKハンズオン:はじめようヘッドトラッキングを用いた3D表現
Holo-SDKハンズオン:はじめようヘッドトラッキングを用いた3D表現
Takashi Yoshinaga
FUKUOKA Engineers Day 2021 発表資料:AR Fukuoka & HoloBox紹介
FUKUOKA Engineers Day 2021 発表資料:AR Fukuoka & HoloBox紹介
Takashi Yoshinaga
Voxon Photonics VX1で遊んでみた
Voxon Photonics VX1で遊んでみた
Takashi Yoshinaga
AR-Frame x AR.js入門
AR-Frame x AR.js入門
Takashi Yoshinaga
AI x WebXR: フェイストラッキングを用いた擬似3D表現を解説!
AI x WebXR: フェイストラッキングを用いた擬似3D表現を解説!
Takashi Yoshinaga
コロナ禍中のコミュニティ活動
コロナ禍中のコミュニティ活動
Takashi Yoshinaga
Project HoloBox
Project HoloBox
Takashi Yoshinaga
AR Fukuoka紹介2020
AR Fukuoka紹介2020
Takashi Yoshinaga
iPad LiDARで作ってみた in AR Fukuoka 忘年会2020
iPad LiDARで作ってみた in AR Fukuoka 忘年会2020
Takashi Yoshinaga
MRTKで始めるAR開発 (HoloLens 1 and 2, ARCore, ARkit)
MRTKで始めるAR開発 (HoloLens 1 and 2, ARCore, ARkit)
Takashi Yoshinaga
OSC2020 Fukuoka: インストールいらず、WebAR入門
OSC2020 Fukuoka: インストールいらず、WebAR入門
Takashi Yoshinaga
Oculus Quest 1&2 開発のはじめの一歩 with A-Frame WebVR
Oculus Quest 1&2 開発のはじめの一歩 with A-Frame WebVR
Takashi Yoshinaga
AI x WebAR MediaPipeの顔認識を使ってみよう! in 織りなすラボ
AI x WebAR MediaPipeの顔認識を使ってみよう! in 織りなすラボ
Takashi Yoshinaga
Spatial Copy & Paste @HoloLensゆるっとLT会
Spatial Copy & Paste @HoloLensゆるっとLT会
Takashi Yoshinaga
AI x WebAR! MediaPipeの顔認識を使ってみよう!
AI x WebAR! MediaPipeの顔認識を使ってみよう!
Takashi Yoshinaga
エンジニアカフェ1周年イベント:WebAR/VR開発入門
エンジニアカフェ1周年イベント:WebAR/VR開発入門
Takashi Yoshinaga
Mehr von Takashi Yoshinaga
(20)
AI x WebAR: MediaPipeのハンドトラッキングを使ってみよう
AI x WebAR: MediaPipeのハンドトラッキングを使ってみよう
iPad LiDARでエンジニアカフェを3Dスキャン
iPad LiDARでエンジニアカフェを3Dスキャン
AI x OpenCV x WebAR: Selfie Segmentationを使ってみよう
AI x OpenCV x WebAR: Selfie Segmentationを使ってみよう
Web技術ではじめようAR/VRアプリ開発
Web技術ではじめようAR/VRアプリ開発
Holo-SDKハンズオン:はじめようヘッドトラッキングを用いた3D表現
Holo-SDKハンズオン:はじめようヘッドトラッキングを用いた3D表現
FUKUOKA Engineers Day 2021 発表資料:AR Fukuoka & HoloBox紹介
FUKUOKA Engineers Day 2021 発表資料:AR Fukuoka & HoloBox紹介
Voxon Photonics VX1で遊んでみた
Voxon Photonics VX1で遊んでみた
AR-Frame x AR.js入門
AR-Frame x AR.js入門
AI x WebXR: フェイストラッキングを用いた擬似3D表現を解説!
AI x WebXR: フェイストラッキングを用いた擬似3D表現を解説!
コロナ禍中のコミュニティ活動
コロナ禍中のコミュニティ活動
Project HoloBox
Project HoloBox
AR Fukuoka紹介2020
AR Fukuoka紹介2020
iPad LiDARで作ってみた in AR Fukuoka 忘年会2020
iPad LiDARで作ってみた in AR Fukuoka 忘年会2020
MRTKで始めるAR開発 (HoloLens 1 and 2, ARCore, ARkit)
MRTKで始めるAR開発 (HoloLens 1 and 2, ARCore, ARkit)
OSC2020 Fukuoka: インストールいらず、WebAR入門
OSC2020 Fukuoka: インストールいらず、WebAR入門
Oculus Quest 1&2 開発のはじめの一歩 with A-Frame WebVR
Oculus Quest 1&2 開発のはじめの一歩 with A-Frame WebVR
AI x WebAR MediaPipeの顔認識を使ってみよう! in 織りなすラボ
AI x WebAR MediaPipeの顔認識を使ってみよう! in 織りなすラボ
Spatial Copy & Paste @HoloLensゆるっとLT会
Spatial Copy & Paste @HoloLensゆるっとLT会
AI x WebAR! MediaPipeの顔認識を使ってみよう!
AI x WebAR! MediaPipeの顔認識を使ってみよう!
エンジニアカフェ1周年イベント:WebAR/VR開発入門
エンジニアカフェ1周年イベント:WebAR/VR開発入門
Kürzlich hochgeladen
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NTT DATA Technology & Innovation
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
sugiuralab
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
akihisamiyanaga1
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
UEHARA, Tetsutaro
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
博三 太田
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
FumieNakayama
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
Hiroshi Tomioka
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
Yuki Kikuchi
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
FumieNakayama
Kürzlich hochgeladen
(9)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
はじめようARCore: Motion Tracking & Image Tracking編
1.
ARコンテンツ作成勉強会 はじめようARCore Motion Tracking &
Augmented Images編
2.
自己紹介 氏名:吉永崇(Takashi Yoshinaga) 所属:九州先端科学技術研究所(ISIT) 専門:ARを用いた医療支援や運動計測 コミュニティ:ARコンテンツ作成勉強会 主催
3.
ARコンテンツ作成勉強会の紹介 2013年5月に勉強会をスタート ARコンテンツの作り方をハンズオン形式で学ぶ
人数は5~10名程度の少人数で実施 参加条件はAR/VRに興味がある人(知識不要) 各地で開催 (福岡、熊本、宮崎、長崎、大分、 鹿児島、山口、広島、関東)
4.
Twitterと勉強会ページで情報を発信しています #AR_Fukuoka Googleで「AR勉強会」で検索
5.
ARCore Googleが提供する次世代ARプラットフォーム。普通のスマホでマーカーレスARを実現。 【主要機能】 (1) 自己位置推定 (Motion
Tracking) (2) 明るさ推定 (Light Estimation) (3) 平面認識 (Environmental Understanding) (4) マーカー認識 (Augmented Image) (5) 空間共有 (Cloud Anchor)
6.
ARCore Googleが提供する次世代ARプラットフォーム。普通のスマホでマーカーレスARを実現。 【主要機能】 (1) 自己位置推定 (Motion
Tracking) (2) 明るさ推定 (Light Estimation) (3) 平面認識 (Environmental Understanding) (4) マーカー認識 (Augmented Image) (5) 空間共有 (Cloud Anchor)
7.
もろもろのダウンロード 演習用素材 http://arfukuoka.lolipop.jp/arcore2 019/sample.zip ARCore SDK(ver. 1.10.0) https://github.com/google- ar/arcore-unity- sdk/releases/tag/v1.10.0
8.
Unityのプロジェクトを作成 (1/2) Unityを起動後、画面右上のNEWをクリック New
9.
Unityのプロジェクトを作成 (2/2) プロジェクト名・保存場所・3Dを指定してCreate project 3D 最後にCreate
Project プロジェクト名 保存場所
10.
まずはUnityの簡単な使い方
11.
Unityの操作画面(概要) ゲーム空間の設計画面
12.
ゲーム空間にCGを追加しよう 右クリック 3DObject → Cube
13.
実行してみよう クリックして実行 クリックして終了 カメラから見た空間
14.
オブジェクトの位置・向き・サイズを調整 クリックして選択 移動 回転 拡大・縮小
15.
Scene(設計画面)の視点を変えよう [←] [→]で左右移動 [↑][↓]でズームイン/アウト [Alt]+ドラッグで回転 +ドラッグで上下左右
16.
CGの詳細情報の編集:位置の指定 オブジェクトの詳細の表示・追加・変更 はInspectorで行う 例えば、TransformのPositionを 変更すると位置が変わる Positionを0
0 0に変更
17.
CGの詳細情報の編集:色の設定 (1/4) ②右クリック ③Create マテリアル(色や質感の設定)を作成 ④Material ①Assets
18.
CGの詳細情報の編集:色の設定 (2/4) 作成したマテリアルの色(Albedo)を設定 (2) Albedoの右側をクリックし、色を選択 (1)作成したマテリアルをクリック ④好きな色を選ぶ
19.
CGの詳細情報の編集:色の設定 (3/4) ④好きな色を選ぶ
20.
CGの詳細情報の編集:色の設定 (4/4) オブジェクト(Cube)のマテリアルを開き、作成したマテリアルを割り当て (2) Materialsの横の▼ (1)Cube (3)
Element0に ドラッグ&ドロップ
21.
確認 色が反映されていればOK。あとから色の変更も可能。
22.
CGの詳細情報の編集:挙動の追加 スクリプト(プログラム)を記述することによりオブジェクトの挙動を表現 (2) Add Component (1)Cube
23.
CGの詳細情報の編集:挙動の追加 New Script スクリプト名 Create and
Add
24.
CGの詳細情報の編集:挙動の追加 スクリプトが追加された
25.
CGの詳細情報の編集:挙動の追加 ここをダブルクリック
26.
スクリプトを使って立方体を回転 public class NewBehaviourScript
: MonoBehaviour { // 初期化のために初回に一回だけ実行される void Start () { } // 毎フレーム(数10ミリ秒おきに)実行される void Update () { } }
27.
スクリプトを使って立方体を回転 public class NewBehaviourScript
: MonoBehaviour { // 初期化のために初回に一回だけ実行される void Start () { } // 毎フレーム(数10ミリ秒おきに)実行される void Update () { //毎フレームY軸を中心に1度ずつ回転 transform.Rotate(0, 1, 0, Space.Self); } }
28.
動作確認 Cubeが回転していればOK
29.
一旦、現状を保存 ①File ②Save Scene as...
30.
一旦、現状を保存 ①新規フォルダー ③sample1フォルダを開き コンテンツ名を入力 (例:sample1) ④保存 以降はCtrl + Sで現状のコンテンツ(Scene)を保存 ②新しいフォルダ名をSample1に変更
31.
不要なCGの削除 Delete Cubeを選択して[Delete]キー
32.
ARCoreを使おう Googleが提供する次世代ARプラットフォーム。普通のスマホでマーカーレスARを実現。 【主要機能】 (1) 自己位置推定 (Motion
Tracking) (2) 明るさ推定 (Light Estimation) (3) 平面認識 (Environmental Understanding) (4) マーカー認識 (Augmented Image) (5) 空間共有 (Cloud Anchor)
33.
ARCoreのインポート ①Assets ②Import Package → Custom
Package ③arcore-unity-sdk-xxx ④開く
34.
ARCoreのインポート Import
35.
確認 GoogleARCoreができていればOK
36.
自己位置推定:Motion Tracking
37.
ARCore用のカメラの設定(1/2) Main Cameraを削除
38.
ARCore用のカメラの設定(2/2) ①GoogleARCore → Prefabs ②
ARCore Device ③ドラッグ&ドロップ
39.
表示オブジェクトの追加(1/2) ①GoogleARCore → Examples
→ Common → Prefabs ② Andy Green Diffuse ③ドラッグ&ドロップ
40.
表示オブジェクトの追加(2/2) ①AndyGreenDiffuse ② Positionのzを0.5[m]
41.
ビルドの準備 ①File ② Build Settings
42.
ビルドの準備 ②Switch Platform ① Android ③Player
Settings
43.
ビルドの準備 ①Product Nameを入力 ② Other
Settings ③ Multithreaded Renderingをオフ
44.
ビルドの準備 ①Package Nameを設定 例) com.arfukuoka.test1 ②
Minimum API Levelを Android 7.0に設定
45.
ビルドの準備 ①XR Settings ② ARCore
Supportedをオン
46.
ビルドと実機インストール ①File ② Build &
Run
47.
ビルドと実機インストール ①インストーラー(apk)の名前を設定 ② 保存
48.
動作確認
49.
床や壁の認識:Environmental Understanding
50.
Environmental Understandingを有効化(1/5) ①Sample1
51.
Environmental Understandingを有効化(2/5) ①右クリック ②Create ③GoogleARCore ④SessionConfig
52.
Environmental Understandingを有効化(3/5) ファイル名を変更(例:sample1)
53.
Environmental Understandingを有効化(4/5) ①sample1.assetをクリック 【Plane Finding
Mode】 (1)Disabled:平面認識なし (2)Horizontal And Vertical: 水平面と垂直面を認識 (3)Horizontal: 水平面のみ認識 (4)Vertical 垂直面のみ認識 今回は(2)~(4)から好きなのを選択
54.
Environmental Understandingを有効化(5/5) ①ARCore Deviceをクリック ②Sample1フォルダ ③sample1.asset ④Session
Configに ドラッグ&ドロップ
55.
平面可視化スクリプト (1/5) ①空白を右クリック ② Create
Empty
56.
平面可視化スクリプト (2/5) GameObjectの名前を Controllerに変更
57.
平面可視化スクリプト (3/5) ①Controllerをクリック ②AddComponent ③Detected Plane
Generator
58.
平面可視化スクリプト (4/5) ②GoogleARCore →
Examples → Common → Prefabs ①Controller
59.
平面可視化スクリプト (5/5) ①DetectedPlaneVisualizerに注目 ※クリックはしない ②Detected Plane Prefabにドラッグ&ドロップ
60.
動作確認 水平面 垂直面
61.
タップした平面にCGを置く ①Controller ②Add Component
62.
タップした平面にCGを置く ①New Script ③Create and
Add ②PutScript
63.
タップした平面にCGを置く ①Controllerをクリック ②PutScriptを ダブルクリック
64.
スクリプトの記述 using System.Collections; using System.Collections.Generic; using
UnityEngine; using GoogleARCore; public class PutScript : MonoBehaviour { public GameObject andy; //CG(Andy)を扱う変数 void Start () { } void Update () { //タップの検出 //タップした画面の座標と3D空間座標の対応付け //Andyをその位置に置く } }
65.
スクリプトの記述 void Update ()
{ //タッチしていないなら if (Input.touchCount < 1 ){ return; } Touch touch = Input.GetTouch(0); //画面をなぞっていなければ if (touch.phase != TouchPhase.Moved ){ return;} //タップした座標にAndyを移動。 TrackableHit hit; TrackableHitFlags filter = TrackableHitFlags.PlaneWithinPolygon; Frame.Raycast(touch.position.x, touch.position.y, filter, out hit) } touch.position hit Moved→画面をなぞる 平面を構成するポリゴンの 内側をタップ判定の対象に
66.
スクリプトの記述 void Update ()
{ //タッチしていないなら if (Input.touchCount < 1 ){ return; } Touch touch = Input.GetTouch(0); //画面をなぞっていなければ if (touch.phase != TouchPhase.Moved ){ return;} //タップした座標にAndyを移動。 TrackableHit hit; TrackableHitFlags filter = TrackableHitFlags.PlaneWithinPolygon; if(Frame.Raycast(touch.position.x, touch.position.y, filter, out hit) ) { //Andyの3D座標を指定するコードを記述(次頁) } } touch.position hit Moved→画面をなぞる 平面を構成するポリゴンの 内側をタップ判定の対象に
67.
スクリプトの記述 if (Frame.Raycast(touch.position.x, touch.position.y,
filter, out hit)) { //平面にヒットしたならAndyを置く if (hit.Trackable is DetectedPlane) { //Andyの位置・姿勢を指定 andy.transform.position = hit.Pose.position; andy.transform.rotation = hit.Pose.rotation; andy.transform.Rotate(0, 180, 0, Space.Self); //Anchorを設定 var anchor = hit.Trackable.CreateAnchor(hit.Pose); andy.transform.parent = anchor.transform; } }
68.
スクリプトとGameObjectのAndyの対応付け ②AndyGreenDiffuse ①Controller ③Put ScriptのAndy にドラッグ&ドロップ
69.
動作確認
70.
マーカー認識:Augmented Image
71.
次の演習の準備 ①Assets ③Create ②右クリック ④Folder
72.
次の演習の準備 フォルダ名をSample2に変更
73.
次の演習の準備 File→New Scene
74.
一旦、現状を保存 ①File ②Save Scene as...
75.
一旦、現状を保存 Sample2を開く コンテンツ名を入力 (例:sample2) 保存
76.
ARCore用カメラの設定 Main Cameraを削除
77.
ARCore用カメラの設定 ①GoogleARCore → Prefabs ②
ARCore Device ③ドラッグ&ドロップ
78.
設定ファイルを作成 ②右クリック ③Create ④GoogleARCore ⑤SessionConfig ①Sample2
79.
設定ファイルを作成 ファイル名を変更(例:sample2)
80.
設定ファイルを作成 ①ARCore Deviceをクリック ②Sample2フォルダ
81.
設定ファイルを作成 ①sample2.assetに注目 ※クリックはしない ②Session Configに ドラッグ&ドロップ
82.
補足 ①sample2.assetをクリック ②下記を適宜設定 ・Plane Fitting Mode ・Enable
Light Estimation ※マーカー認識には影響なし
83.
次の手順 このあと Augmented Image Database にマーカ情報の一覧を登録する
84.
マーカー画像を追加 ②sample2 ①Sample(事前配布)フォルダ ③AndyMarkerとearthを ドラッグ&ドロップ
85.
画像をマーカーとして登録 AndyMarkerとearthを選択
86.
画像をマーカーとして登録 ①どちらかの画像を右クリック ②Create ③GoogleARCore ④AugmentedImage Database
87.
画像をマーカーとして登録 マーカー画像のデータベース
88.
解説 マーカーの横幅の実寸サイズ[m] ※0の場合、ARCore側で勝手に 推定してくれる。 ただし、サイズをしておいた方が 位置合わせは安定する Qualityは認識のしやすさ ※75以上推奨 by Google
89.
sample2.assetをクリック
90.
NewDatabase.assetに注目 Augmented Images にドラッグ&ドロップ
91.
Poly Googleが提供する3Dデータ共有サービス https://poly.google.com/
92.
オブジェクトの入手 ここから検索 画面上部のフォームから「Astronaut」で検索
93.
オブジェクトの入手 ここをクリック
94.
オブジェクトの入手 ダウンロード → OBJファイル
95.
今回は事前配布
96.
CGをプロジェクトに追加 sample2 ①Sample(事前配布)フォルダ ③Astronautフォルダ をドラッグ&ドロップ
97.
CGをプロジェクトに追加 Astronautが追加されていればOK
98.
マーカー認識用スクリプトの作成 ①右クリック ②Create Empty
99.
マーカー認識用スクリプトの作成 GameObjectの名前を Controllerに変更(※任意)
100.
マーカー認識用スクリプトの作成 ①AddComponent
101.
マーカー認識用スクリプトの作成 ①New Script ③Create and
Add ②MarkerScript
102.
マーカー認識用スクリプトの作成 ②ダブルクリック ①Controller
103.
スクリプトの記述 using GoogleARCore; public class
MarkerScript : MonoBehaviour { public GameObject andy;//Andyオブジェクト public GameObject astronaut;//宇宙飛行士オブジェクト //検出されたマーカー番号(int)とCG(GameObject)の対応を記録する辞書 Dictionary<int,GameObject> markerDic = new Dictionary<int,GameObject>(); //フレーム毎に認識されたマーカーを一時的に覚えておく List<AugmentedImage> markers = new List<AugmentedImage>(); void Start() { } void Update() { //マーカーとCGの対応付けを行う(次頁) } }
104.
CGとスクリプトの対応付け(Andy) ② Controller ① GoogleARCore
→ Examples → Common → Prefabs
105.
CGとスクリプトの対応付け(Andy) ①AndyGreenDiffuseに注目 ②Andyに ドラッグ&ドロップ
106.
CGとスクリプトの対応付け(Astronaut) ①Controller ②Sample2 → Astronaut
107.
CGとスクリプトの対応付け(Astronaut) ①Astronaut ②Astronautに ドラッグ&ドロップ
108.
void Update() { //計測情報が更新されたマーカーを取得 Session.GetTrackables<AugmentedImage> (markers,TrackableQueryFilter.Updated); //マーカーに対してCGとの対応付けor解除を行う foreach (var
image in markers) { int index = image.DatabaseIndex; //マーカーの番号 GameObject obj = null; //上記indexに対応するCGを格納(予定) markerDic.TryGetValue(index, out obj);//indexに対応するCGを取得 if (obj == null && image.TrackingState == TrackingState.Tracking) { //マーカーとCGの対応付けと辞書(markerDic)登録を行う } else if (obj != null && image.TrackingState == TrackingState.Stopped) { //計測をやめたマーカーに対して行う処理 } } }
109.
void Update() { //計測情報が更新されたマーカーを取得 Session.GetTrackables<AugmentedImage> (markers,TrackableQueryFilter.Updated); //マーカーに対してCGとの対応付けor解除を行う foreach (var
image in markers) { int index = image.DatabaseIndex; //マーカーの番号 GameObject obj = null; //上記indexに対応するCGを格納(予定) markerDic.TryGetValue(index, out obj);//indexに対応するCGを取得 if (obj == null && image.TrackingState == TrackingState.Tracking) { //マーカーとCGの対応付けと辞書(markerDic)登録を行う } else if (obj != null && image.TrackingState == TrackingState.Stopped) { //計測をやめたマーカーに対して行う処理 } } }
110.
if (obj ==
null && image.TrackingState == TrackingState.Tracking) { Anchor anchor = image.CreateAnchor(image.CenterPose); switch (index) { case 0://AndyMarker obj = GameObject.Instantiate(andy, anchor.transform); obj.transform.localPosition = new Vector3(0, 0.02f, -0.04f); obj.transform.Rotate(-90, 0, 0, Space.Self); obj.transform.localScale =new Vector3(0.3f, 0.3f, 0.3f); markerDic.Add(index, obj); break; case 1://earth obj = GameObject.Instantiate(astronaut, anchor.transform); obj.transform.localPosition = new Vector3(0.02f, 0.04f, 0); obj.transform.Rotate(90, 0, 0, Space.Self); obj.transform.localScale = new Vector3(0.01f, 0.01f, 0.01f); markerDic.Add(index, obj); break; } }
111.
void Update() { //計測情報が更新されたマーカーを取得 Session.GetTrackables<AugmentedImage> (markers,TrackableQueryFilter.Updated); //マーカーに対してCGとの対応付けor解除を行う foreach (var
image in markers){ int index = image.DatabaseIndex; //マーカーの番号 GameObject obj = null; //上記indexに対応するCGを格納(予定) markerDic.TryGetValue(index, out obj);//indexに対応するCGを取得 if (obj == null && image.TrackingState == TrackingState.Tracking) { //マーカーとCGの対応付けと辞書(markerDic)登録を行う } else if (obj != null && image.TrackingState == TrackingState.Stopped) { markerDic.Remove(index); Destroy(obj); } } }
112.
完成!