SlideShare ist ein Scribd-Unternehmen logo
1 von 75
ARコンテンツ作成勉強会
RGB-Dセンシングと画像処理
#AR_Fukuoka
本日作成するコンテンツ
元ネタ: https://youtu.be/_qXcVtE1jc4
ハンズオンのおおまかな手順
Depth画像取得 手の検出 手より奥を無視
手周辺を切り出し形を認識
Visual Studioを起動
プロジェクトを作成 (1/2)
①ファイル
②新規作成
③プロジェクト
プロジェクトを作成 (2/2)
①VisualC#
②Windows フォームアプリケーション
③OK
動作確認
開始
KinectSDKの導入 (1/3)
①参照を右クリック
②参照の追加
KinectSDKの導入 (2/3)
Kinectで検索
KinectSDKの導入 (3/3)
①チェックを入れる
②OK
今回はカラー画像、Depth画像、スケルトンを活用したコンテンツを作る
Kinect SDKのデータは少々扱いづらいので、こちらで変換プログラムを提供
http://arfukuoka.lolipop.jp/kinect2018/sample.zip
KinectGrabberの導入 (1/4)
KinectGrabber.csをForm1.csと
同じディレクトリにドラッグ&ドロップ
KinectGrabberの導入 (2/4)
プロジェクトを右クリック
KinectGrabberの導入 (3/4)
①追加
②既存の項目
KinectGrabberの導入 (4/4)
①KinectGrabber.cs
②追加
スケールモードを設定
①クリック
②AutoScaleModeをNoneに変更
画像表示領域を作成 (1/6)
①ToolBoxタブ
②PictureBox
画像表示領域を作成 (2/6)
フォーム内をクリック
画像表示領域を作成 (3/6)
①PictureBoxをクリック
②Sizeを640,480
画像表示領域を作成 (4/6)
Formを選択してサイズを広げる
画像表示領域を作成 (5/6)
① PictureBox追加
② サイズを
320,240
画像表示領域を作成 (6/6)
① PictureBox追加
② Sizeを
240,240
③ Background Image LayoutをZoom
各PictureBoxの役割
pictureBox1 : AR表示
pictureBox2: Depth画像
pictureBox3:
手の周辺画像
Timerを用いた更新周期の設定
Timerを使うと任意に設定した間隔で処理(画像の取得・表示)を実行させられる
①ツールボックス
②Timer
Timerを用いた更新周期の設定
①Form上をクリック
②Timerが追加される
➂Intervalを30[ms]
に変更(なんでもOK)
一定時間毎に呼び出される関数を作成
①Timerをダブルクリック
一定時間毎に呼び出される関数を作成
timer1_Tick関数が追加される
一定時間おきにtimer1_Tick関数の内部に書いた処理が実行される(予定)
Formが表示されたらTimerをスタートさせる
①Form1[デザイン]
②Form1をクリック
Formが表示されたらTimerをスタートさせる
①⚡をクリック
②Shownをダブルクリック
Formが表示されたらTimerをスタートさせる
namespace Kinect_ARFukuoka
{
public partial class Form1 : Form
{
public Form1()
{
InitializeComponent();
}
private void timer1_Tick(object sender, EventArgs e)
{
}
private void Form1_Shown(object sender, EventArgs e)
{
timer1.Start(); //タイマーの動作を開始
}
}
}
①Form1_Shownが追加される
②自分で追加
Kinectと接続
using KinectSample; //KinectGrabberの機能をインポート
using Microsoft.Kinect; //ついでなのでKinectSDK(本家)もインポート
namespace Kinect_ARFukuoka
{
public partial class Form1 : Form
{
KinectGrabber kinect = new KinectGrabber();
public Form1()
{
InitializeComponent();
}
private void timer1_Tick(object sender, EventArgs e)
{
}
/*****以下省略*****/
アプリ終了時にKinectを止める
①⚡をクリック
②FormClosing
をダブルクリック
アプリ終了時にKinectを止める
KinectGrabber kinect = new KinectGrabber();
public Form1()
{
InitializeComponent();
}
private void timer1_Tick(object sender, EventArgs e)
{
}
private void Form1_Shown(object sender, EventArgs e)
{
timer1.Start();
}
private void Form1_FormClosing(object sender, FormClosingEventArgs e)
{
kinect.Close();
}
確認
実行すると赤外線の
照射が始まる
Kinectの画像を表示
KinectGrabber kinect = new KinectGrabber();
public Form1()
{
InitializeComponent();
}
private void timer1_Tick(object sender, EventArgs e)
{
Bitmap color = kinect.GetColorImage(); //カラー画像取得
Bitmap depth = kinect.GetDepthImage(); //Depth画像取得
pictureBox1.Image = color; //カラー画像を表示
pictureBox2.Image = depth; //Depth画像を表示
}
private void Form1_Shown(object sender, EventArgs e)
{
timer1.Start();
}
Depth画像で使用する距離の範囲を指定
KinectGrabber kinect = new KinectGrabber();
public Form1()
{
InitializeComponent();
}
private void timer1_Tick(object sender, EventArgs e)
{
float threshold = 8;
Bitmap color = kinect.GetColorImage(); //カラー画像取得
Bitmap depth = kinect.GetDepthImage(); //Depth画像取得
pictureBox1.Image = color; //カラー画像を表示
pictureBox2.Image = depth; //Depth画像を表示
}
private void Form1_Shown(object sender, EventArgs e)
{
timer1.Start();
}
Bitmap depth = kinect.GetDepthImage(threshold); //Depth画像取得
閾値(奥行きの上限)を変えてみよう
【解説】
 Depth画像を使うとKinectからの距離を
用いて処理すべき領域を絞ることができる。
 通常はKinectSDKで取得したDepthに
対して処理するが、扱いが面倒なので、
KinectGrabberで処理した結果を使用
Threshold=8 Threshold=4 Threshold=2
このあとやること:手より後方を無視する
Depth画像取得
手周辺を切り出し形を認識
手の検出 手より奥を無視
ユーザーのスケルトンと手の位置を取得
KinectGrabber kinect = new KinectGrabber();
Skeleton skeleton; //ユーザーの関節
SkeletonPoint hand; //ユーザーの手の3次元座標
public Form1()
{
InitializeComponent();
}
private void timer1_Tick(object sender, EventArgs e)
{
float threshold = 8;
skeleton = kinect.GetSkeleton(); //ユーザーの関節を取得
if (skeleton != null)
{
hand = skeleton.Joints[JointType.HandRight].Position;
}
Bitmap color = kinect.GetColorImage(); //カラー画像取得
Bitmap depth = kinect.GetDepthImage(threshold); //Depth画像取得
pictureBox1.Image = color; //カラー画像を表示
pictureBox2.Image = depth; //Depth画像を表示
}
補足
Skeleton skeleton; //ユーザーの関節
SkeletonPoint hand; //ユーザーの手の3次元座標
skeleton = kinect.GetSkeleton(); //ユーザーの関節を取得
if (skeleton != null)
{
hand = skeleton.Joints[JointType.HandRight].Position;
}
【補足】
 Kinect v1では20か所の関節を認識可能
 全ての関節の情報は配列Jointsに格納
 各関節の情報はJointsの[]の中で
JointType.XXXを用いて指定
 Positionで関節の3次元座標を取得
 3次元座標の定義は、Kinectから見て
左右がx, 上下がy、奥行き方向がz
手の位置を描画してみる(1/2)
②⚡をクリック
③Paintを
ダブルクリック
①pictureBox2
手の位置を描画してみる(2/2)
private void pictureBox2_Paint(object sender, PaintEventArgs e)
{
if (skeleton == null) return;
Graphics g = e.Graphics;
//3次元の関節座標を2次元のDepth画像座標に変換
DepthImagePoint p = kinect.Skeleton2Depth(hand);
//円を描画
g.FillEllipse(Brushes.Red, p.X - 5, p.Y - 5, 10, 10);
}
x
y
スクリーン座標系
手の位置 p.X, p.Y
10
10
5
5
動作確認
手より後ろの画像情報を無視する
private void timer1_Tick(object sender, EventArgs e)
{
float threshold = 8;
skeleton = kinect.GetSkeleton(); //ユーザーの関節を取得
if(skeleton !=null){
hand = skeleton.Joints[JointType.HandRight].Position;
threshold = hand.Z; //手の位置(奥行き方向z)を閾値とする
}
Bitmap color = kinect.GetColorImage(); //カラー画像取得
Bitmap depth = kinect.GetDepthImage(threshold); //Depth画像取得
pictureBox1.Image = color; //カラー画像を表示
pictureBox2.Image = depth; //Depth画像を表示
}
ここからOpenCVによる画像処理
Depth画像取得 手の検出 手より奥を無視
手周辺を切り出し形を認識
OpenCvSharpの導入 (1/4)
①ツール
②NuGet パッケージマネージャー
③ソリューションのNuGetパッケージ
OpenCvSharpの導入 (2/4)
①参照 ②nuget.org
OpenCvSharpの導入 (3/4)
①OpenCVsharp3
②OpenCvSharp3 AnyCPU
③パッケージのチェックをON
④Install
OpenCvSharpの導入 (4/4)
NuGetを閉じる
OpenCVの読み込み
using KinectSample; //KinectGrabberの機能をインポート
using Microsoft.Kinect; //ついでにKinectSDK(本家)もインポート
using OpenCvSharp;
using OpenCvSharp.Extensions;
namespace Kinect_ARFukuoka
{
public partial class Form1 : Form
{
KinectGrabber kinect = new KinectGrabber();
public Form1()
{
InitializeComponent();
}
private void timer1_Tick(object sender, EventArgs e)
{
}
/*****以下省略*****/
手の周辺を切り抜く(概要説明)
 手より後ろを無視することで、かなり情報を減らすことができた
 一方、OpenCVはどんな画像に対しても1ピクセルずつ処理
 無駄が多いので手の周辺画素のみに対して処理すべき
 注目している領域をROI(Region Of Interest)と呼ぶ
手の周辺を切り抜く(注意点)
 ROIの4隅が元画像の外になるとエラーになる
 手の位置が元画像の端にある場合はROIを作成しない
roiHalf
roiHalf ROIを作れる手の位置
手の周辺を切り抜く関数を作成
private void timer1_Tick(object sender, EventArgs e)
{
/*省略*/
}
Mat getROI(Bitmap depth)
{
DepthImagePoint p = kinect.Skeleton2Depth(hand);
int roiSize = 60;
int roiHalf = roiSize / 2;
if(p.X>roiHalf && p.X+roiHalf<depth.Width
&& p.Y>roiHalf && p.Y + roiHalf < depth.Height)
{
Rect rect =
new Rect(p.X - roiHalf, p.Y - roiHalf, roiSize, roiSize);
Mat roi = BitmapConverter.ToMat(depth)[rect];
return roi;
}
return null;
}
roiHalf
roiHalf
ROIを作れる手の位置
切り取り結果を表示
private void timer1_Tick(object sender, EventArgs e)
{
float threshold = 8;
skeleton = kinect.GetSkeleton(); //ユーザーの関節を取得
if(skeleton !=null){
hand = skeleton.Joints[JointType.HandRight].Position;
threshold = hand.Z; //手の位置(奥行き方向z)を閾値とする
}
Bitmap color = kinect.GetColorImage(); //カラー画像取得
Bitmap depth = kinect.GetDepthImage(threshold); //Depth画像取得
pictureBox1.Image = color; //カラー画像を表示
pictureBox2.Image = depth; //Depth画像を表示
if(skeleton == null) return; //ユーザーが見つからなければ終了
Mat roi = getROI(depth); //手の周辺をROIとして切り取る
if(roi == null) return; //ROIが作成できなければ終了
pictureBox3.BackgroundImage=roi.ToBitmap(); //切り抜き画像を貼り付け
roi.Dispose(); //メモリ開放
}
このあとやること
人の目では手の部分が一つの「まとまり」として理解できるが、
コンピュータは各ピクセルが白か黒かしか理解できない。
輪郭認識を用いて一つのまとまりとして扱えるようにする
手の輪郭の取得する関数の作成
OpenCvSharp.Point[] getHandContour(Mat bgr)
{
Mat bin = bgr.CvtColor(ColorConversionCodes.BGR2GRAY);
OpenCvSharp.Point[][] lines;
HierarchyIndex[] h;
bin.FindContours(out lines, out h,
RetrievalModes.External,
ContourApproximationModes.ApproxSimple);
double maxArea = -1;
OpenCvSharp.Point[] contour = null;
for(int i = 0; i < lines.Length; i++)
{
double area = Cv2.ContourArea(lines[i]);
if (area > maxArea)
{
maxArea = area;
contour = lines[i];
}
}
return contour;
}
輪郭抽出と結果の表示
private void timer1_Tick(object sender, EventArgs e)
{
/*省略(Kinectからのスケルトンの取得とカラー&Depth画像表示)*/
if(skeleton == null) return; //ユーザーが見つからなければ終了
Mat roi = getROI(depth); //手の周辺をROIとして切り取る
if(roi == null) return; //ROIが作成できなければ終了
OpenCvSharp.Point[] contour = getHandContour(roi); //輪郭抽出
//↓輪郭がない場合または輪郭点数が少ない場合は終了
if (contour == null || contour.Length < 5) return;
DrawPolyLine(roi, contour, Scalar.Cyan); //描画
pictureBox3.BackgroundImage=roi.ToBitmap(); //切り抜き画像を貼り付け
roi.Dispose(); //メモリ開放
}
void DrawPolyLine(Mat bgr, OpenCvSharp.Point[] points, Scalar color)
{
/*次のページ*/
}
輪郭の表示
void DrawPolyLine(Mat bgr, OpenCvSharp.Point[] points, Scalar color)
{
OpenCvSharp.Point p = points.Last();
for(int i = 0; i < points.Length; i++)
{
Cv2.Line(bgr, p, points[i], color);
p = points[i];
}
}
0 1
2
3
4
points[0] 1
2
3
p
p points[1]
2
3
4
0 1
2
p
points[4]
・・・
i = 0 i = 1 i = 4
シンプルな図形(凸包)に近似
private void timer1_Tick(object sender, EventArgs e)
{
/*省略(Kinectからのスケルトンの取得とカラー&Depth画像表示)*/
if(skeleton == null) return; //ユーザーが見つからなければ終了
Mat roi = getROI(depth); //手の周辺をROIとして切り取る
if(roi == null) return; //ROIが作成できなければ終了
OpenCvSharp.Point[] contour = getHandContour(roi); //輪郭抽出
//↓輪郭がない場合または輪郭点数が少ない場合は終了
if (contour == null || contour.Length < 5) return;
OpenCvSharp.Point[] hull = Cv2.ConvexHull(contour);//凸包近似
DrawPolyLine(roi, contour, Scalar.Cyan); //描画
DrawPolyLine(roi, hull, Scalar.Red);
pictureBox3.BackgroundImage=roi.ToBitmap(); //切り抜き画像を貼り付け
roi.Dispose(); //メモリ開放
}
凸包(Convex Hull)を活用した親指認識
 与えられた点をすべて包含する最小の凸多角形のことを凸包という
 点の集まりをシンプルな図形として扱うときによく用いられる手法
※手の場合、指の認識の下処理としても用いられる。
 今回は指の認識はせず、凸包に対する白画素の面積の大小をもとに
親指を立てた時と手を握っている時を判別。
thumbUp: true thumbUp: false
凸包と白画素の比率を表示
①ツールボックス
②Label
③適当に配置
④フォントサイズを20
凸包と白画素の比率を表示
void HandState(OpenCvSharp.Point[] contour, OpenCvSharp.Point[] hull)
{
double handArea = Cv2.ContourArea(contour);
double hullArea = Cv2.ContourArea(hull);
double ratio = handArea / hullArea;
label1.Text = ratio.ToString();
}
private void timer1_Tick(object sender, EventArgs e)
{
/*省略(Kinectのデータ取得 ~ 輪郭抽出)*/
if (contour == null || contour.Length < 5) return;
OpenCvSharp.Point[] hull = Cv2.ConvexHull(contour);//凸包近似
HandState(contour, hull);
DrawPolyLine(roi, contour, Scalar.Cyan); //描画
DrawPolyLine(roi, hull, Scalar.Red);
pictureBox3.BackgroundImage=roi.ToBitmap(); //切り抜き画像を貼り付け
roi.Dispose(); //メモリ開放
}
親指のOn/Offを判別
void HandState(OpenCvSharp.Point[] contour, OpenCvSharp.Point[] hull)
{
double handArea = Cv2.ContourArea(contour);
double hullArea = Cv2.ContourArea(hull);
double ratio = handArea / hullArea;
label1.Text = ratio.ToString();
}
bool thumbUp=false;
private void timer1_Tick(object sender, EventArgs e)
{
thumbUp=false;
/*省略(Kinectのデータ取得 ~ 凸包近似)*/
HandState(contour, hull);
DrawPolyLine(roi, contour, Scalar.Cyan); //描画
DrawPolyLine(roi, hull, Scalar.Red);
pictureBox3.BackgroundImage=roi.ToBitmap(); //切り抜き画像を貼り付け
roi.Dispose(); //メモリ開放
}
bool HandState(OpenCvSharp.Point[] contour, OpenCvSharp.Point[] hull)
{
double handArea = Cv2.ContourArea(contour);
double hullArea = Cv2.ContourArea(hull);
double ratio = handArea / hullArea;
//label1.Text = ratio.ToString();
if (ratio < 0.9) return true;
else return false;
}
thumbUp = HandState(contour, hull);
手の傾きを算出
bool thumbUp = false;
float angle=0;
private void timer1_Tick(object sender, EventArgs e)
{
/*省略(Kinectのデータ取得 ~ 凸包近似)*/
thumbUp = HandState(contour, hull);
if (thumbUp)
{
RotatedRect ell = Cv2.FitEllipse(contour);
Cv2.Ellipse(roi, ell, Scalar.Green);
angle = ell.Angle;
label1.Text = angle.ToString();
}
DrawPolyLine(roi, contour, Scalar.Cyan); //描画
DrawPolyLine(roi, hull, Scalar.Red);
pictureBox3.BackgroundImage=roi.ToBitmap(); //切り抜き画像を貼り付け
roi.Dispose(); //メモリ開放
}
140度
60度
120度
手の傾きを算出
bool thumbUp = false;
float angle=0;
private void timer1_Tick(object sender, EventArgs e)
{
/*省略(Kinectのデータ取得 ~ 凸包近似)*/
thumbUp = HandState(contour, hull);
if (thumbUp)
{
RotatedRect ell = Cv2.FitEllipse(contour);
Cv2.Ellipse(roi, ell, Scalar.LightGreen);
angle = ell.Angle;
if (angle < 90) { angle -= 180; }
label1.Text = angle.ToString();
}
DrawPolyLine(roi, contour, Scalar.Cyan); //描画
DrawPolyLine(roi, hull, Scalar.Red);
pictureBox3.BackgroundImage=roi.ToBitmap(); //切り抜き画像を貼り付け
roi.Dispose(); //メモリ開放
}
プロジェクト名フォルダ>プロジェクト名フォルダ>bin>Debug/Releaseにsaber.pngを入れる
画像の描画
①pictureBox1クリック
③Paintをダブルクリック
②⚡クリック
画像の描画
①pictureBox1_Paintが追加される
描画しよう
Bitmap saber = new Bitmap("saber.png");
private void pictureBox1_Paint(object sender, PaintEventArgs e)
{
if (thumbUp)
{
ColorImagePoint p = kinect.Skeleton2Color(hand);
Graphics g = e.Graphics;
g.TranslateTransform(p.X, p.Y);
g.RotateTransform(angle);
int h = saber.Height;
int w = saber.Width;
g.DrawImage(saber, 0, 0, w, h);
}
}
g.DrawImage(saber, -w / 2, 0, w, h);
こまごました話:データの平滑化
凸包と輪郭ないの画素の比率を計算すると
結構ノイズが多いので平滑化するとより安定
→簡易ローパスフィルターを使う
こまごました話:データの平滑化
double prev=0;
bool HandState(OpenCvSharp.Point[] contour, OpenCvSharp.Point[] hull)
{
double handArea = Cv2.ContourArea(contour);
double hullArea = Cv2.ContourArea(hull);
double ratio = handArea / hullArea;
double c = 0.1;
ratio = ratio * c + prev * (1 - c);
prev = ratio;
if (ratio < 0.9) return true;
else return false;
}
はじめようRGB-Dセンシングと画像処理

Weitere ähnliche Inhalte

Was ist angesagt?

画像処理ライブラリ OpenCV で 出来ること・出来ないこと
画像処理ライブラリ OpenCV で 出来ること・出来ないこと画像処理ライブラリ OpenCV で 出来ること・出来ないこと
画像処理ライブラリ OpenCV で 出来ること・出来ないことNorishige Fukushima
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話Yusuke Uchida
 
20090924 姿勢推定と回転行列
20090924 姿勢推定と回転行列20090924 姿勢推定と回転行列
20090924 姿勢推定と回転行列Toru Tamaki
 
-SSIIの技術マップ- 過去•現在, そして未来 [領域]認識
-SSIIの技術マップ- 過去•現在, そして未来 [領域]認識-SSIIの技術マップ- 過去•現在, そして未来 [領域]認識
-SSIIの技術マップ- 過去•現在, そして未来 [領域]認識Hironobu Fujiyoshi
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選Yusuke Uchida
 
A-Frameで始めるWebXRとハンドトラッキング (HoloLens2/Oculus Quest対応)
A-Frameで始めるWebXRとハンドトラッキング (HoloLens2/Oculus Quest対応)A-Frameで始めるWebXRとハンドトラッキング (HoloLens2/Oculus Quest対応)
A-Frameで始めるWebXRとハンドトラッキング (HoloLens2/Oculus Quest対応)Takashi Yoshinaga
 
失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用Hiroyuki Masuda
 
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...Deep Learning JP
 
OpenCVとRGB-Dセンサで作ろう壁面タッチパネル
OpenCVとRGB-Dセンサで作ろう壁面タッチパネルOpenCVとRGB-Dセンサで作ろう壁面タッチパネル
OpenCVとRGB-Dセンサで作ろう壁面タッチパネルTakashi Yoshinaga
 
Data-centricなML開発
Data-centricなML開発Data-centricなML開発
Data-centricなML開発Takeshi Suzuki
 
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向SSII
 
SfM Learner系単眼深度推定手法について
SfM Learner系単眼深度推定手法についてSfM Learner系単眼深度推定手法について
SfM Learner系単眼深度推定手法についてRyutaro Yamauchi
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Modelscvpaper. challenge
 
深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎Takumi Ohkuma
 
【ECCV 2022】NeDDF: Reciprocally Constrained Field for Distance and Density
【ECCV 2022】NeDDF: Reciprocally Constrained Field for Distance and Density【ECCV 2022】NeDDF: Reciprocally Constrained Field for Distance and Density
【ECCV 2022】NeDDF: Reciprocally Constrained Field for Distance and Densitycvpaper. challenge
 
SLAM開発における課題と対策の一例の紹介
SLAM開発における課題と対策の一例の紹介SLAM開発における課題と対策の一例の紹介
SLAM開発における課題と対策の一例の紹介miyanegi
 
[DL輪読会]Human Pose Estimation @ ECCV2018
[DL輪読会]Human Pose Estimation @ ECCV2018[DL輪読会]Human Pose Estimation @ ECCV2018
[DL輪読会]Human Pose Estimation @ ECCV2018Deep Learning JP
 
モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019Yusuke Uchida
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイcvpaper. challenge
 
SSII2018TS: 3D物体検出とロボットビジョンへの応用
SSII2018TS: 3D物体検出とロボットビジョンへの応用SSII2018TS: 3D物体検出とロボットビジョンへの応用
SSII2018TS: 3D物体検出とロボットビジョンへの応用SSII
 

Was ist angesagt? (20)

画像処理ライブラリ OpenCV で 出来ること・出来ないこと
画像処理ライブラリ OpenCV で 出来ること・出来ないこと画像処理ライブラリ OpenCV で 出来ること・出来ないこと
画像処理ライブラリ OpenCV で 出来ること・出来ないこと
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
 
20090924 姿勢推定と回転行列
20090924 姿勢推定と回転行列20090924 姿勢推定と回転行列
20090924 姿勢推定と回転行列
 
-SSIIの技術マップ- 過去•現在, そして未来 [領域]認識
-SSIIの技術マップ- 過去•現在, そして未来 [領域]認識-SSIIの技術マップ- 過去•現在, そして未来 [領域]認識
-SSIIの技術マップ- 過去•現在, そして未来 [領域]認識
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
 
A-Frameで始めるWebXRとハンドトラッキング (HoloLens2/Oculus Quest対応)
A-Frameで始めるWebXRとハンドトラッキング (HoloLens2/Oculus Quest対応)A-Frameで始めるWebXRとハンドトラッキング (HoloLens2/Oculus Quest対応)
A-Frameで始めるWebXRとハンドトラッキング (HoloLens2/Oculus Quest対応)
 
失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用
 
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
 
OpenCVとRGB-Dセンサで作ろう壁面タッチパネル
OpenCVとRGB-Dセンサで作ろう壁面タッチパネルOpenCVとRGB-Dセンサで作ろう壁面タッチパネル
OpenCVとRGB-Dセンサで作ろう壁面タッチパネル
 
Data-centricなML開発
Data-centricなML開発Data-centricなML開発
Data-centricなML開発
 
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
 
SfM Learner系単眼深度推定手法について
SfM Learner系単眼深度推定手法についてSfM Learner系単眼深度推定手法について
SfM Learner系単眼深度推定手法について
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
 
深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎
 
【ECCV 2022】NeDDF: Reciprocally Constrained Field for Distance and Density
【ECCV 2022】NeDDF: Reciprocally Constrained Field for Distance and Density【ECCV 2022】NeDDF: Reciprocally Constrained Field for Distance and Density
【ECCV 2022】NeDDF: Reciprocally Constrained Field for Distance and Density
 
SLAM開発における課題と対策の一例の紹介
SLAM開発における課題と対策の一例の紹介SLAM開発における課題と対策の一例の紹介
SLAM開発における課題と対策の一例の紹介
 
[DL輪読会]Human Pose Estimation @ ECCV2018
[DL輪読会]Human Pose Estimation @ ECCV2018[DL輪読会]Human Pose Estimation @ ECCV2018
[DL輪読会]Human Pose Estimation @ ECCV2018
 
モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
 
SSII2018TS: 3D物体検出とロボットビジョンへの応用
SSII2018TS: 3D物体検出とロボットビジョンへの応用SSII2018TS: 3D物体検出とロボットビジョンへの応用
SSII2018TS: 3D物体検出とロボットビジョンへの応用
 

Ähnlich wie はじめようRGB-Dセンシングと画像処理

KinectでAR空間に入り込もう
KinectでAR空間に入り込もうKinectでAR空間に入り込もう
KinectでAR空間に入り込もうTakashi Yoshinaga
 
ももち浜TECHカフェ:OpenCVとKinectで作ろう壁面タッチパネル
ももち浜TECHカフェ:OpenCVとKinectで作ろう壁面タッチパネルももち浜TECHカフェ:OpenCVとKinectで作ろう壁面タッチパネル
ももち浜TECHカフェ:OpenCVとKinectで作ろう壁面タッチパネルTakashi Yoshinaga
 
レゴ×Kinect実験指導書
レゴ×Kinect実験指導書レゴ×Kinect実験指導書
レゴ×Kinect実験指導書Satoshi Fujimoto
 
Media Art II 2013 第7回 : openFrameworks 3Dグラフィクス、OpenGL
Media Art II 2013 第7回 : openFrameworks 3Dグラフィクス、OpenGLMedia Art II 2013 第7回 : openFrameworks 3Dグラフィクス、OpenGL
Media Art II 2013 第7回 : openFrameworks 3Dグラフィクス、OpenGLAtsushi Tadokoro
 
Kinect技術紹介20140407
Kinect技術紹介20140407Kinect技術紹介20140407
Kinect技術紹介20140407fukuoka-t
 
Kinect深度情報処理入門
Kinect深度情報処理入門Kinect深度情報処理入門
Kinect深度情報処理入門伸男 伊藤
 
KinebrickEV3におけるスタイリッシュモーションの取り組み
KinebrickEV3におけるスタイリッシュモーションの取り組みKinebrickEV3におけるスタイリッシュモーションの取り組み
KinebrickEV3におけるスタイリッシュモーションの取り組みAkira Hatsune
 
HoloLensハンズオン@ももち浜TECHカフェ vol.2
HoloLensハンズオン@ももち浜TECHカフェ vol.2HoloLensハンズオン@ももち浜TECHカフェ vol.2
HoloLensハンズオン@ももち浜TECHカフェ vol.2Takashi Yoshinaga
 
iOSプログラマへ。HTML5 Canvasがおもしろい!
iOSプログラマへ。HTML5 Canvasがおもしろい!iOSプログラマへ。HTML5 Canvasがおもしろい!
iOSプログラマへ。HTML5 Canvasがおもしろい!cocopon
 
Kinect Camp with TMCN / Kinect入門ハンズオン 2015.06.06
Kinect Camp with TMCN/ Kinect入門ハンズオン 2015.06.06Kinect Camp with TMCN/ Kinect入門ハンズオン 2015.06.06
Kinect Camp with TMCN / Kinect入門ハンズオン 2015.06.06Akira Hatsune
 
Azure kinect DKハンズオン
Azure kinect DKハンズオンAzure kinect DKハンズオン
Azure kinect DKハンズオンTakashi Yoshinaga
 
Unity meets Kinect -Unity で NUI を扱ってみた- / 2015.06.23 at TechBuzz Space
Unity meets Kinect -Unity で NUI を扱ってみた- / 2015.06.23 at TechBuzz SpaceUnity meets Kinect -Unity で NUI を扱ってみた- / 2015.06.23 at TechBuzz Space
Unity meets Kinect -Unity で NUI を扱ってみた- / 2015.06.23 at TechBuzz SpaceMori Tetsuya
 
第19回SOIL水曜セミナー:RGB-DカメラでAR空間に入り込もう
第19回SOIL水曜セミナー:RGB-DカメラでAR空間に入り込もう第19回SOIL水曜セミナー:RGB-DカメラでAR空間に入り込もう
第19回SOIL水曜セミナー:RGB-DカメラでAR空間に入り込もうTakashi Yoshinaga
 
Cocos2d-xハンズオン#1 in 大阪
Cocos2d-xハンズオン#1 in 大阪Cocos2d-xハンズオン#1 in 大阪
Cocos2d-xハンズオン#1 in 大阪Shingo Yamano
 
ARコンテンツ作成勉強会:Myoを用いたVRコンテンツ開発
ARコンテンツ作成勉強会:Myoを用いたVRコンテンツ開発ARコンテンツ作成勉強会:Myoを用いたVRコンテンツ開発
ARコンテンツ作成勉強会:Myoを用いたVRコンテンツ開発Takashi Yoshinaga
 
Unityの夕べ in Fukuoka
Unityの夕べ in FukuokaUnityの夕べ in Fukuoka
Unityの夕べ in FukuokaShinobu Izumi
 
Kinect Hacks for Dummies (Japanese / 日本語)
Kinect Hacks for Dummies (Japanese / 日本語)Kinect Hacks for Dummies (Japanese / 日本語)
Kinect Hacks for Dummies (Japanese / 日本語)Tomoto Washio
 
KinectプログラミングStepByStep
KinectプログラミングStepByStepKinectプログラミングStepByStep
KinectプログラミングStepByStep信之 岩永
 
はじめようArcore (修正版)
はじめようArcore (修正版)はじめようArcore (修正版)
はじめようArcore (修正版)Takashi Yoshinaga
 

Ähnlich wie はじめようRGB-Dセンシングと画像処理 (20)

KinectでAR空間に入り込もう
KinectでAR空間に入り込もうKinectでAR空間に入り込もう
KinectでAR空間に入り込もう
 
ももち浜TECHカフェ:OpenCVとKinectで作ろう壁面タッチパネル
ももち浜TECHカフェ:OpenCVとKinectで作ろう壁面タッチパネルももち浜TECHカフェ:OpenCVとKinectで作ろう壁面タッチパネル
ももち浜TECHカフェ:OpenCVとKinectで作ろう壁面タッチパネル
 
レゴ×Kinect実験指導書
レゴ×Kinect実験指導書レゴ×Kinect実験指導書
レゴ×Kinect実験指導書
 
Media Art II 2013 第7回 : openFrameworks 3Dグラフィクス、OpenGL
Media Art II 2013 第7回 : openFrameworks 3Dグラフィクス、OpenGLMedia Art II 2013 第7回 : openFrameworks 3Dグラフィクス、OpenGL
Media Art II 2013 第7回 : openFrameworks 3Dグラフィクス、OpenGL
 
Hands on
Hands onHands on
Hands on
 
Kinect技術紹介20140407
Kinect技術紹介20140407Kinect技術紹介20140407
Kinect技術紹介20140407
 
Kinect深度情報処理入門
Kinect深度情報処理入門Kinect深度情報処理入門
Kinect深度情報処理入門
 
KinebrickEV3におけるスタイリッシュモーションの取り組み
KinebrickEV3におけるスタイリッシュモーションの取り組みKinebrickEV3におけるスタイリッシュモーションの取り組み
KinebrickEV3におけるスタイリッシュモーションの取り組み
 
HoloLensハンズオン@ももち浜TECHカフェ vol.2
HoloLensハンズオン@ももち浜TECHカフェ vol.2HoloLensハンズオン@ももち浜TECHカフェ vol.2
HoloLensハンズオン@ももち浜TECHカフェ vol.2
 
iOSプログラマへ。HTML5 Canvasがおもしろい!
iOSプログラマへ。HTML5 Canvasがおもしろい!iOSプログラマへ。HTML5 Canvasがおもしろい!
iOSプログラマへ。HTML5 Canvasがおもしろい!
 
Kinect Camp with TMCN / Kinect入門ハンズオン 2015.06.06
Kinect Camp with TMCN/ Kinect入門ハンズオン 2015.06.06Kinect Camp with TMCN/ Kinect入門ハンズオン 2015.06.06
Kinect Camp with TMCN / Kinect入門ハンズオン 2015.06.06
 
Azure kinect DKハンズオン
Azure kinect DKハンズオンAzure kinect DKハンズオン
Azure kinect DKハンズオン
 
Unity meets Kinect -Unity で NUI を扱ってみた- / 2015.06.23 at TechBuzz Space
Unity meets Kinect -Unity で NUI を扱ってみた- / 2015.06.23 at TechBuzz SpaceUnity meets Kinect -Unity で NUI を扱ってみた- / 2015.06.23 at TechBuzz Space
Unity meets Kinect -Unity で NUI を扱ってみた- / 2015.06.23 at TechBuzz Space
 
第19回SOIL水曜セミナー:RGB-DカメラでAR空間に入り込もう
第19回SOIL水曜セミナー:RGB-DカメラでAR空間に入り込もう第19回SOIL水曜セミナー:RGB-DカメラでAR空間に入り込もう
第19回SOIL水曜セミナー:RGB-DカメラでAR空間に入り込もう
 
Cocos2d-xハンズオン#1 in 大阪
Cocos2d-xハンズオン#1 in 大阪Cocos2d-xハンズオン#1 in 大阪
Cocos2d-xハンズオン#1 in 大阪
 
ARコンテンツ作成勉強会:Myoを用いたVRコンテンツ開発
ARコンテンツ作成勉強会:Myoを用いたVRコンテンツ開発ARコンテンツ作成勉強会:Myoを用いたVRコンテンツ開発
ARコンテンツ作成勉強会:Myoを用いたVRコンテンツ開発
 
Unityの夕べ in Fukuoka
Unityの夕べ in FukuokaUnityの夕べ in Fukuoka
Unityの夕べ in Fukuoka
 
Kinect Hacks for Dummies (Japanese / 日本語)
Kinect Hacks for Dummies (Japanese / 日本語)Kinect Hacks for Dummies (Japanese / 日本語)
Kinect Hacks for Dummies (Japanese / 日本語)
 
KinectプログラミングStepByStep
KinectプログラミングStepByStepKinectプログラミングStepByStep
KinectプログラミングStepByStep
 
はじめようArcore (修正版)
はじめようArcore (修正版)はじめようArcore (修正版)
はじめようArcore (修正版)
 

Mehr von Takashi Yoshinaga

HoloLens2とMeta QuestではじめるWebXR
HoloLens2とMeta QuestではじめるWebXRHoloLens2とMeta QuestではじめるWebXR
HoloLens2とMeta QuestではじめるWebXRTakashi Yoshinaga
 
【準備編】OculusQuest/HoloLens2対応WebXR開発
【準備編】OculusQuest/HoloLens2対応WebXR開発【準備編】OculusQuest/HoloLens2対応WebXR開発
【準備編】OculusQuest/HoloLens2対応WebXR開発Takashi Yoshinaga
 
ARコンテンツ作成勉強会( #AR_Fukuoka )紹介
ARコンテンツ作成勉強会( #AR_Fukuoka )紹介ARコンテンツ作成勉強会( #AR_Fukuoka )紹介
ARコンテンツ作成勉強会( #AR_Fukuoka )紹介Takashi Yoshinaga
 
AI x WebAR: MediaPipeのハンドトラッキングを使ってみよう
AI x WebAR: MediaPipeのハンドトラッキングを使ってみようAI x WebAR: MediaPipeのハンドトラッキングを使ってみよう
AI x WebAR: MediaPipeのハンドトラッキングを使ってみようTakashi Yoshinaga
 
iPad LiDARで エンジニアカフェを3Dスキャン
iPad LiDARでエンジニアカフェを3DスキャンiPad LiDARでエンジニアカフェを3Dスキャン
iPad LiDARで エンジニアカフェを3DスキャンTakashi Yoshinaga
 
AI x OpenCV x WebAR: Selfie Segmentationを使ってみよう
AI x OpenCV x WebAR: Selfie Segmentationを使ってみようAI x OpenCV x WebAR: Selfie Segmentationを使ってみよう
AI x OpenCV x WebAR: Selfie Segmentationを使ってみようTakashi Yoshinaga
 
Web技術ではじめようAR/VRアプリ開発
Web技術ではじめようAR/VRアプリ開発Web技術ではじめようAR/VRアプリ開発
Web技術ではじめようAR/VRアプリ開発Takashi Yoshinaga
 
MRTKをNreal Lightに対応させてみた
MRTKをNreal Lightに対応させてみたMRTKをNreal Lightに対応させてみた
MRTKをNreal Lightに対応させてみたTakashi Yoshinaga
 
【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオン
【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオン【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオン
【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオンTakashi Yoshinaga
 
Holo-SDKハンズオン:はじめようヘッドトラッキングを用いた3D表現
Holo-SDKハンズオン:はじめようヘッドトラッキングを用いた3D表現Holo-SDKハンズオン:はじめようヘッドトラッキングを用いた3D表現
Holo-SDKハンズオン:はじめようヘッドトラッキングを用いた3D表現Takashi Yoshinaga
 
FUKUOKA Engineers Day 2021 発表資料:AR Fukuoka & HoloBox紹介
FUKUOKA Engineers Day 2021 発表資料:AR Fukuoka & HoloBox紹介FUKUOKA Engineers Day 2021 発表資料:AR Fukuoka & HoloBox紹介
FUKUOKA Engineers Day 2021 発表資料:AR Fukuoka & HoloBox紹介Takashi Yoshinaga
 
Voxon Photonics VX1 で遊んでみた
Voxon Photonics VX1で遊んでみたVoxon Photonics VX1で遊んでみた
Voxon Photonics VX1 で遊んでみたTakashi Yoshinaga
 
AI x WebXR: フェイストラッキングを用いた擬似3D表現を解説!
AI x WebXR: フェイストラッキングを用いた擬似3D表現を解説!AI x WebXR: フェイストラッキングを用いた擬似3D表現を解説!
AI x WebXR: フェイストラッキングを用いた擬似3D表現を解説!Takashi Yoshinaga
 
コロナ禍中のコミュニティ活動
コロナ禍中のコミュニティ活動コロナ禍中のコミュニティ活動
コロナ禍中のコミュニティ活動Takashi Yoshinaga
 
iPad LiDARで作ってみた in AR Fukuoka 忘年会2020
iPad LiDARで作ってみた in AR Fukuoka 忘年会2020iPad LiDARで作ってみた in AR Fukuoka 忘年会2020
iPad LiDARで作ってみた in AR Fukuoka 忘年会2020Takashi Yoshinaga
 
MRTKで始めるAR開発 (HoloLens 1 and 2, ARCore, ARkit)
MRTKで始めるAR開発 (HoloLens 1 and 2, ARCore, ARkit)MRTKで始めるAR開発 (HoloLens 1 and 2, ARCore, ARkit)
MRTKで始めるAR開発 (HoloLens 1 and 2, ARCore, ARkit)Takashi Yoshinaga
 

Mehr von Takashi Yoshinaga (20)

HoloLens2とMeta QuestではじめるWebXR
HoloLens2とMeta QuestではじめるWebXRHoloLens2とMeta QuestではじめるWebXR
HoloLens2とMeta QuestではじめるWebXR
 
【準備編】OculusQuest/HoloLens2対応WebXR開発
【準備編】OculusQuest/HoloLens2対応WebXR開発【準備編】OculusQuest/HoloLens2対応WebXR開発
【準備編】OculusQuest/HoloLens2対応WebXR開発
 
ARコンテンツ作成勉強会( #AR_Fukuoka )紹介
ARコンテンツ作成勉強会( #AR_Fukuoka )紹介ARコンテンツ作成勉強会( #AR_Fukuoka )紹介
ARコンテンツ作成勉強会( #AR_Fukuoka )紹介
 
AI x WebAR: MediaPipeのハンドトラッキングを使ってみよう
AI x WebAR: MediaPipeのハンドトラッキングを使ってみようAI x WebAR: MediaPipeのハンドトラッキングを使ってみよう
AI x WebAR: MediaPipeのハンドトラッキングを使ってみよう
 
iPad LiDARで エンジニアカフェを3Dスキャン
iPad LiDARでエンジニアカフェを3DスキャンiPad LiDARでエンジニアカフェを3Dスキャン
iPad LiDARで エンジニアカフェを3Dスキャン
 
AI x OpenCV x WebAR: Selfie Segmentationを使ってみよう
AI x OpenCV x WebAR: Selfie Segmentationを使ってみようAI x OpenCV x WebAR: Selfie Segmentationを使ってみよう
AI x OpenCV x WebAR: Selfie Segmentationを使ってみよう
 
Web技術ではじめようAR/VRアプリ開発
Web技術ではじめようAR/VRアプリ開発Web技術ではじめようAR/VRアプリ開発
Web技術ではじめようAR/VRアプリ開発
 
MRTKをNreal Lightに対応させてみた
MRTKをNreal Lightに対応させてみたMRTKをNreal Lightに対応させてみた
MRTKをNreal Lightに対応させてみた
 
Nreal Lightハンズオン
Nreal LightハンズオンNreal Lightハンズオン
Nreal Lightハンズオン
 
【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオン
【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオン【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオン
【準備編!】HoloLens 2/Oculus Quest対応WebXRハンズオン
 
Holo-SDKハンズオン:はじめようヘッドトラッキングを用いた3D表現
Holo-SDKハンズオン:はじめようヘッドトラッキングを用いた3D表現Holo-SDKハンズオン:はじめようヘッドトラッキングを用いた3D表現
Holo-SDKハンズオン:はじめようヘッドトラッキングを用いた3D表現
 
FUKUOKA Engineers Day 2021 発表資料:AR Fukuoka & HoloBox紹介
FUKUOKA Engineers Day 2021 発表資料:AR Fukuoka & HoloBox紹介FUKUOKA Engineers Day 2021 発表資料:AR Fukuoka & HoloBox紹介
FUKUOKA Engineers Day 2021 発表資料:AR Fukuoka & HoloBox紹介
 
Voxon Photonics VX1 で遊んでみた
Voxon Photonics VX1で遊んでみたVoxon Photonics VX1で遊んでみた
Voxon Photonics VX1 で遊んでみた
 
AR-Frame x AR.js入門
AR-Frame x AR.js入門AR-Frame x AR.js入門
AR-Frame x AR.js入門
 
AI x WebXR: フェイストラッキングを用いた擬似3D表現を解説!
AI x WebXR: フェイストラッキングを用いた擬似3D表現を解説!AI x WebXR: フェイストラッキングを用いた擬似3D表現を解説!
AI x WebXR: フェイストラッキングを用いた擬似3D表現を解説!
 
コロナ禍中のコミュニティ活動
コロナ禍中のコミュニティ活動コロナ禍中のコミュニティ活動
コロナ禍中のコミュニティ活動
 
Project HoloBox
Project HoloBoxProject HoloBox
Project HoloBox
 
AR Fukuoka紹介2020
AR Fukuoka紹介2020AR Fukuoka紹介2020
AR Fukuoka紹介2020
 
iPad LiDARで作ってみた in AR Fukuoka 忘年会2020
iPad LiDARで作ってみた in AR Fukuoka 忘年会2020iPad LiDARで作ってみた in AR Fukuoka 忘年会2020
iPad LiDARで作ってみた in AR Fukuoka 忘年会2020
 
MRTKで始めるAR開発 (HoloLens 1 and 2, ARCore, ARkit)
MRTKで始めるAR開発 (HoloLens 1 and 2, ARCore, ARkit)MRTKで始めるAR開発 (HoloLens 1 and 2, ARCore, ARkit)
MRTKで始めるAR開発 (HoloLens 1 and 2, ARCore, ARkit)
 

Kürzlich hochgeladen

PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000Shota Ito
 
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxIoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxAtomu Hidaka
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略Ryo Sasaki
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Danieldanielhu54
 
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
新人研修のまとめ       2024/04/12の勉強会で発表されたものです。新人研修のまとめ       2024/04/12の勉強会で発表されたものです。
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。iPride Co., Ltd.
 
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。iPride Co., Ltd.
 
UPWARD_share_company_information_20240415.pdf
UPWARD_share_company_information_20240415.pdfUPWARD_share_company_information_20240415.pdf
UPWARD_share_company_information_20240415.pdffurutsuka
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムsugiuralab
 
20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directoryosamut
 

Kürzlich hochgeladen (9)

PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000
 
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxIoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
 
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
新人研修のまとめ       2024/04/12の勉強会で発表されたものです。新人研修のまとめ       2024/04/12の勉強会で発表されたものです。
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
 
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
 
UPWARD_share_company_information_20240415.pdf
UPWARD_share_company_information_20240415.pdfUPWARD_share_company_information_20240415.pdf
UPWARD_share_company_information_20240415.pdf
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory
 

はじめようRGB-Dセンシングと画像処理