SlideShare ist ein Scribd-Unternehmen logo
1 von 84
Downloaden Sie, um offline zu lesen
Kerasを用いた3次元検索エ
ンジン@TFUG
2017.11.16 Masaya Ogushi
The Goal▸ 戦略:深層学習の初期プロダクト作成までのアプローチ
について知ってもらう
▸ 戦略を適用した結果:Kerasを用いた3次元CNNの手法
について知ってもらう
注意:今回の発表内容はあくまで個人の見解なので他の方のアプローチも知りたいです
2
Table of Contents
戦略
1. 正しい問題を探す
2. 正しい方法を探す
a. 情報を集める
3. チャレンジし続ける
a. 小さく試す
b. チャレンジを多くする
4. フォーカス
a. 正しい問題にフォーカスする
b. 正しい方法の重要度を上げる
3
Reference: https://www.iconfinder.com/
Table of Contents
戦略を適用
1. Deep Learning Model: VoxNet
a. 3D CNN
b. 3D Max Pool
c. Fully connected
d. Output
e. Train
2. 性能を向上するための技術
a. 精度
b. 速度
3. 結果
4
自己紹介
・大串 正矢
・株式会社カブク
・機械学習エンジニア
Twitter: @SnowGushiGit
5
Kabuku Inc.
・要求に応じた製造サービス
の提供
- 3Dデータを受け取り3D
printerなどを使って製造
を発注するケースがある
6
https://www.kabuku.co.jp/
戦略
7
戦略
正しい問題を探す
8
“Deep Learningであなたの問題の解
決したいですか?
正しい問題を探す
▸ Deep learningを使用するのにベストなケー
スは?
▹ 大抵のケース
▹ 画像処理
▹ 音声認識
▹ いくつかのケース
▹ 自然言語処理
▹ 時系列解析
10
正しい問題を探す
▸ Deep learningを使用するのにワーストな
ケースは?
▹ 十分な学習データがない
▹ 事前学習済みモデルを用意出来ない
▹ 100%の精度が必要(機械学習全般)
11
戦略
正しい方法を探す
12
“
問題解決するためにベストな方法を
どうやって探してますか?
“ググるか !!
“
ちょっと待って
Find the Right method
▸ どのようにDeep Learning のベストな解決
法を探しているか? (私の場合)
▹ Google scholar
▹ 論文検索用のエンジン
▹ 下記のことが得られます。
▹ 良い方法
▹ 良いキーワード
▹ どの大学や研究室がその問題に対して詳しいか
▹ メールマガジン
▹ 配信者によって洗練された情報を取得
16
Find the Right method
▸ どのようにDeep Learning のベストな解決
法を探しているか? (私の場合)
▹ 大学の研究室のサイト
▹ データがゲット出来るかも
▹ コードがゲット出来るかも
▹ GitXiv
▹ コードと論文がセットになっているサイト
▹ Twitter
▹ 最新の情報が取得出来るかも
17
Find the Right method
▸ どのようにDeep Learning のベストな解決法
を探しているか? (私の場合)
▹ 書籍
▹ 体系的な知識
▹ ArXiv
▹ 最新の手法
▹ Github
▹ 実行可能なコード
▹ Google
▹ 上記で良いキーワードを知っているのでググる!
18
戦略
チャレンジし続ける
19
“大量の学習データが集まった!!
このデータ全て使用して学習!!
“
ちょっと待って
チャレンジし続ける
▸ 小さく試す
▹ もし大量の学習データを取得したら下記のことを試
してください。
▹ 小さな学習データを準備
▹ モジュールが正しく動作するか確認
▹ 確認が簡単な綺麗なデータを使用
▹ 大抵のモデルは“mnist”などでのデータが学習可能なので
それで動作を確認する
22
Reference: https://www.tensorflow.org/get_started/mnist/beginners
チャレンジし続ける
▸ 多くのチャレンジ
▹ 精度を上げる手法は明確に分からない
▹ 結果の確認は必須
▹ 学習データのロス、バリデーションデータのロスが下がらない場
合は止めましょう。
▹ TensorBoardのような可視化ツールの使用
▹ チャレンジの回数を増やすために計算速度を向上
しましょう。
▹ GPUの使用
▹ CPU最適化
23
戦略
フォーカス
24
“
Deep learning は精度向上の手法が
多い。
“- モデル
- どれだけ深くする?
- どんな構造?
- ハイパーパラメータの調整
- データの前処理
- データ オーギュメンテーション
- Optimizer
- SGD, Adam, など
フォーカス
▸ 正しい問題にフォーカス
▹ あなたの状況に依存
▹ 十分な計算資源と十分なデータ
▹ 深く複雑なモデルに挑戦
▹ 十分な計算資源だがデータが十分にない
▹ 学習済みモデルを探す
▹ 前処理とデータオーギュメンテーションにフォーカス
27
Focus
▸ 正しい問題にフォーカス
▹ あなたの状況に依存
▹ 十分な計算資源がなく十分なデータもない
▹ 他の方法を考えましょう
▹ ロジスティック回帰、ランダムフォレストなど
▹ Deep learningは多分ベストチョイスではないです
28
戦略を適用
Deep Learning applied to 3D objects
29
戦略を適用
Deep Learning Model: VoxNet
30
“深層学習のモデルは多数存在...
どのようにモデルを選ぶか
Deep Learning Model: VoxNet
32
▸ 下記の3つを考慮しました(自分のケース)
▹ リソース
▹ コンピューターリソース
▹ 人手
▹ パフォーマンス
▹ 要求性能
▹ 速度
▹ 実現スピード
Deep Learning Model: VoxNet
33
Reference: http://ri.cmu.edu/pub_files/2015/9/voxnet_maturana_scherer_iros15.pdf.
Deep Learning Model: VoxNet
34
▸ VoxNet 利点
▹ リソース
▹ 計算資源
▹ 良い
▹ Memory 32GB (In my environment)
▹ GPU GeForce GTX 1080 (In my environment)
▹ パフォーマンス
▹ 精度
▹ 83 % accuracy (Top model 95 %)
▹ 開発速度
▹ オープンソース, シンプルなコード
35
Deep Learning Model: VoxNet
▸ Voxelize
▹ 3D データ を 32 * 32 * 32 ボクセル
データへ
▹ データのサイズを減らす
Deep Learning Model: VoxNet (3D CNN 3D objects)
36
▸ Convolution 3D
Reference: https://www.youtube.com/watch?v=ecbeIRVqD7g
Deep Learning Model: VoxNet (3D CNN 3D objects)
37
1
5
1
6
2
7
4
8
3
1
2
2
1
3
0
4
kernel: 2x2
stride: 2
Convolution 2D
Input Image(4x4)
5 1
3 2
1*5+1*1
+
5*3+6*2
2*5+4*1
+
7*3+8*2
3*5+2*1
+
1*3+2*2
1*5+0*1
+
3*3+4*2
33 51
24 8
Convoluted Image(2x2)
Deep Learning Model: VoxNet (3D CNN 3D objects)
38
▸ Convolution 3D
Deep Learning Model: VoxNet (3D CNN 3D objects)
39
▸ Convolution 3D
Deep Learning Model: VoxNet (3D CNN 3D objects)
40
▸ Convolution 3D
Deep Learning Model: VoxNet (3D CNN 3D objects)
41
▸ Convolution 3D
Deep Learning Model: VoxNet (3D CNN 3D objects)
42
▸ Convolution 3D
Deep Learning Model: VoxNet (3D CNN 3D objects)
43
▸ Convolution 3D
Deep Learning Model: VoxNet (3D CNN 3D objects)
44
▸ Convolution 3D
Deep Learning Model: VoxNet (3D CNN 3D objects)
45
32 回
▸ Convolution 3D
Deep Learning Model: VoxNet (3D CNN 3D objects)
46
32
filter
:
:
3DCNN
Conv3D(input_shape=(32, 32, 32, 1),
filters=32,
kernel_size=(5, 5, 5),
strides=(2, 2, 2),
data_format=”channels_last”
)
▸ Convolution 3D
Deep Learning Model: VoxNet (Max Pool3D)
47
1
5
1
6
2
7
4
8
3
1
2
2
1
3
0
4
6 8
3 4
Max pool
Pooling size: 2 x 2
Stride: 2
▸ Max Pool 2D
Convolution Feature
Deep Learning Model: VoxNet (Max Pool3D)
48
▸ Max Pool 3D
Convolution
Feature
Pool window
Deep Learning Model: VoxNet (Max Pool3D)
49
Convolution
Feature
▸ Max Pool 3D
Deep Learning Model: VoxNet (Max Pool3D)
50
Convolution
Feature
▸ Max Pool 3D
Deep Learning Model: VoxNet (Max Pool3D)
51
MaxPooling3D(pool_size=(2, 2, 2),
data_format='channels_last',)
▸ Max Pool 3D
Deep Learning Model: VoxNet (Max Pool3D)
52
▸ Fully Connected and Output
3DCNN &
3DMaxPool
:
:
Fully
connected
Dense
128
Dense
number of
class
softmax
Deep Learning Model: VoxNet (Flatten, Dense)
53
▸ Fully Connected and Output
▹ ソフトマックス関数
▹ 出力を確率分布へ
▹ 微分が簡単に
Deep Learning Model: VoxNet (Output)
54
▸ Fully Connected and Output
model.add(Flatten())
model.add(Dense(128, activation='linear',))
model.add(Dense(output_dim=number_class,
activation='linear',))
model.add(Activation("softmax"))
Deep Learning Model: VoxNet
55
model = Sequential()
model.add(Conv3D(input_shape=(32, 32, 32, 1),
filters=32,
kernel_size=(5, 5, 5), strides=(2, 2, 2),
data_format='channels_last',))
model.add(Conv3D(filters=32,
kernel_size=(3, 3, 3), strides=(1, 1, 1),
data_format='channels_last',))
model.add(MaxPooling3D(pool_size=(2, 2, 2),
data_format='channels_last',))
model.add(Flatten())
model.add(Dense(128, activation='linear',))
model.add(Dense(output_dim=number_class, activation='linear',))
model.add(Activation(‘softmax’))
▸ Model
Deep Learning Model: VoxNet
56
▸ Train
model.compile(loss='categorical_crossentropy',
metrics=['accuracy'])
model.fit(x_voxel_data, y_class_label)
戦略を適用
性能を向上するための技術:精度
57
性能を向上するための技術:精度
58
▸ 性能向上へのアプローチ
▹ モデル
▹ 利点
▹ 精度向上の手段が多彩
▹ 欠点
▹ 深いモデルほどリソースを消費
▹ 性能向上が不明確
▹ データ
▹ 利点
▹ 効果がある程度明瞭
▹ 欠点
▹ 手段が限られている
性能を向上するための技術:精度
59
▸ バリデーションデータに対する精度向上の
施作
▹ モデル
▹ RandomDropout
▹ LeakyRelu
▹ データ
▹ Data augmentation(3D data)
▹ Data increase
▹ Class weight をアンバランスなカテゴリのデー
タに使用
性能を向上するための技術:精度
60
▸ データへアプローチ
▹ Data Augmentation は下記の点で優れている
▹ 効果が明確
▹ 計算速度が層を深くするようなモデルと違って
上がらない
性能を向上するための技術:精度
61
▸ Data Augmentation
▹ 回転
▹ シフト
▹ フリップ
▹ その他
性能を向上するための技術:精度
62
▸ Data Augmentation 3D
▹ Augmentation_matrix を変更する
channel_images = [ndi.interpolation.affine_transform(x,
augmentation_matrix,
)for x in x_voxel]
x = np.stack(channel_images, axis=0)
性能を向上するための技術:精度
63
▸ Data Augmentation 3D Rotation
rotation_matrix_y = np.array([[np.cos(theta), 0, np.sin(theta) , 0],
[0 , 1, 0 , 0],
[-np.sin(theta), 0, np.cos(theta), 0],
[0 , 0 , 0 , 1]])
性能を向上するための技術:精度
64
▸ Data increase
学習データにData
augmentation したデータ
を加える
戦略を適用
性能を向上するための技術:速度
65
性能を向上するための技術:速度
66
▸ Deep Learningは多様な速度向上の手法
が存在
▹ GPU(GeForce GTX 1080: Memory 8GB)
▹ CPU 最適化
▹ マルチスレッド
▹ 特徴量データを予め用意すること
性能を向上するための技術:速度
67
▸ CPU 最適化 (TensorFlow build option)
▹ ソースからの独自ビルド
bazel build -c opt --copt=-mavx --copt=-mavx2 --copt=-mfma
戦略を適用
結果
68
Results
69
▸ バリデーションデータの精度
Results
70
Method Explanation
Training
(accuracy)
Validation
(accuracy)
BaseLine BaseLine 90% 79%
Shift_x_Shift_y Data augmentation(x-shift, y-shift) 80% 80%
Shift_x_Shift_y_class
_weight
Data augmentation(x-shift, y-shift) + class
weight 80% 83%
Add_Shift_x_Shift_y_
class_weight
Data augmentation(x-shift, y-shift) + class
weight + ADD(x-shift, y-shift) 85% 85%
まとめ
71
まとめ
72
まとめ
73
Ref: https://www.iconfinder.com/, https://github.com/, https://arxiv.org/, http://www.gitxiv.com/, https://scholar.google.co.jp/
Right problem
laboratory
Rechallenge
Focus
▸ 戦略
正しい問題 チャレンジ フォーカス正しい手法
Conclusion
74
▸ Our case
Data augmentation
Modelのカスタマイズ
3D検索エンジン VoxNet
オンデマンドマニュファ
クチャリングサービス
正しい問題 チャレンジ フォーカス正しい手法
デモ
75
Demo
76
▸ デモのビデオ
We’re hiring
77
“We are hiring!!
機械学習エンジニア
https://www.kabuku.co.jp/jobs/machine-learning-engin
eer
フロントエンドエンジニア
https://www.kabuku.co.jp/jobs/front-end-developer
サーバーサイドエンジニア
https://www.kabuku.co.jp/jobs/backend-developer
79
THANKS!
質問があれば
Twitter @SnowGushiGit
masaya.ohgushi@kabuku.co.jp
References
80
References
▸ MNIST datasets
▹ https://www.tensorflow.org/get_started/mnist/beginners
▸ Flaticon
▹ www.flaticon.com
▸ 3D CNN-Action Recognition Part-1
▹ https://www.youtube.com/watch?v=ecbeIRVqD7g&t=82s
▸ Bengio, Yoshua, et al. "Curriculum learning." Proceedings of the 26th annual
international conference on machine learning. ACM, 2009.
▸ He, Kaiming, et al. "Deep residual learning for image recognition." Proceedings of the
IEEE Conference on Computer Vision and Pattern Recognition. 2016.
▸ Yann, Margot Lisa-Jing, and Yichuan Tang. "Learning Deep Convolutional Neural
Networks for X-Ray Protein Crystallization Image Analysis." AAAI. 2016.
▸ Maturana, Daniel, and Sebastian Scherer. "Voxnet: A 3d convolutional neural network
for real-time object recognition." Intelligent Robots and Systems (IROS), 2015 IEEE/RSJ
International Conference on. IEEE, 2015.
81
References
▸ Deep Learning Book
▹ http://www.deeplearningbook.org/
▸ IconFinder
▹ https://www.iconfinder.com/,
▸ Github
▹ https://github.com/,
▸ Arxiv
▹ https://arxiv.org/
▸ GitXiv
▹ http://www.gitxiv.com/
▸ GoogleSchlor
▹ https://scholar.google.co.jp/
▸
82
Appendix
83
Appendix
▸ Twitterユーザーの探し方
▹ In my case
▹ ファーストステップ
▹ 良いtweetをしている場合は良いtwitterユーザーの確率が
高い
▹ 良いTweet例
▹ 論文
▹ ブログ
▹ セカンドステップ
▹ 良いTwitterユーザーをフォローしているユーザーは良い
Twitterユーザーの確率が高い
84

Weitere ähnliche Inhalte

Was ist angesagt?

Tf勉強会(4)
Tf勉強会(4)Tf勉強会(4)
Tf勉強会(4)tak9029
 
Kmeans vs kmeanspp_20151124
Kmeans vs kmeanspp_20151124Kmeans vs kmeanspp_20151124
Kmeans vs kmeanspp_20151124博三 太田
 
農業AIハッカソンマイクロソフト様発表資料
農業AIハッカソンマイクロソフト様発表資料農業AIハッカソンマイクロソフト様発表資料
農業AIハッカソンマイクロソフト様発表資料Kohei Mochida
 
Very helpful python code to find coefficients of the finite difference method
Very helpful python code to find coefficients of the finite difference methodVery helpful python code to find coefficients of the finite difference method
Very helpful python code to find coefficients of the finite difference method智啓 出川
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Seiya Tokui
 
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)Nguyen Tuan
 
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)Takuma Yagi
 
機械学習 論文輪読会 Hybrid Reward Architecture for Reinforcement Learning
機械学習 論文輪読会 Hybrid Reward Architecture for Reinforcement Learning 機械学習 論文輪読会 Hybrid Reward Architecture for Reinforcement Learning
機械学習 論文輪読会 Hybrid Reward Architecture for Reinforcement Learning Yuko Ishizaki
 
PostgreSQL13 新機能紹介
PostgreSQL13 新機能紹介PostgreSQL13 新機能紹介
PostgreSQL13 新機能紹介Satoshi Hirata
 
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 Kenta Oono
 
2015年度GPGPU実践プログラミング 第7回 総和計算
2015年度GPGPU実践プログラミング 第7回 総和計算2015年度GPGPU実践プログラミング 第7回 総和計算
2015年度GPGPU実践プログラミング 第7回 総和計算智啓 出川
 
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqsleipnir002
 
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Kenta Oono
 
(公開版)FPGAエクストリームコンピューティング2017
(公開版)FPGAエクストリームコンピューティング2017 (公開版)FPGAエクストリームコンピューティング2017
(公開版)FPGAエクストリームコンピューティング2017 Hiroki Nakahara
 
How to Schedule Machine Learning Workloads Nicely In Kubernetes #CNDT2020 / C...
How to Schedule Machine Learning Workloads Nicely In Kubernetes #CNDT2020 / C...How to Schedule Machine Learning Workloads Nicely In Kubernetes #CNDT2020 / C...
How to Schedule Machine Learning Workloads Nicely In Kubernetes #CNDT2020 / C...Preferred Networks
 
[GTCJ2018] Optimizing Deep Learning with Chainer PFN得居誠也
[GTCJ2018] Optimizing Deep Learning with Chainer PFN得居誠也[GTCJ2018] Optimizing Deep Learning with Chainer PFN得居誠也
[GTCJ2018] Optimizing Deep Learning with Chainer PFN得居誠也Preferred Networks
 
mxnetで頑張る深層学習
mxnetで頑張る深層学習mxnetで頑張る深層学習
mxnetで頑張る深層学習Takashi Kitano
 

Was ist angesagt? (18)

Tf勉強会(4)
Tf勉強会(4)Tf勉強会(4)
Tf勉強会(4)
 
Kmeans vs kmeanspp_20151124
Kmeans vs kmeanspp_20151124Kmeans vs kmeanspp_20151124
Kmeans vs kmeanspp_20151124
 
農業AIハッカソンマイクロソフト様発表資料
農業AIハッカソンマイクロソフト様発表資料農業AIハッカソンマイクロソフト様発表資料
農業AIハッカソンマイクロソフト様発表資料
 
Very helpful python code to find coefficients of the finite difference method
Very helpful python code to find coefficients of the finite difference methodVery helpful python code to find coefficients of the finite difference method
Very helpful python code to find coefficients of the finite difference method
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
 
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
 
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
 
機械学習 論文輪読会 Hybrid Reward Architecture for Reinforcement Learning
機械学習 論文輪読会 Hybrid Reward Architecture for Reinforcement Learning 機械学習 論文輪読会 Hybrid Reward Architecture for Reinforcement Learning
機械学習 論文輪読会 Hybrid Reward Architecture for Reinforcement Learning
 
PostgreSQL13 新機能紹介
PostgreSQL13 新機能紹介PostgreSQL13 新機能紹介
PostgreSQL13 新機能紹介
 
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
 
Deep learning入門
Deep learning入門Deep learning入門
Deep learning入門
 
2015年度GPGPU実践プログラミング 第7回 総和計算
2015年度GPGPU実践プログラミング 第7回 総和計算2015年度GPGPU実践プログラミング 第7回 総和計算
2015年度GPGPU実践プログラミング 第7回 総和計算
 
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvq
 
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
 
(公開版)FPGAエクストリームコンピューティング2017
(公開版)FPGAエクストリームコンピューティング2017 (公開版)FPGAエクストリームコンピューティング2017
(公開版)FPGAエクストリームコンピューティング2017
 
How to Schedule Machine Learning Workloads Nicely In Kubernetes #CNDT2020 / C...
How to Schedule Machine Learning Workloads Nicely In Kubernetes #CNDT2020 / C...How to Schedule Machine Learning Workloads Nicely In Kubernetes #CNDT2020 / C...
How to Schedule Machine Learning Workloads Nicely In Kubernetes #CNDT2020 / C...
 
[GTCJ2018] Optimizing Deep Learning with Chainer PFN得居誠也
[GTCJ2018] Optimizing Deep Learning with Chainer PFN得居誠也[GTCJ2018] Optimizing Deep Learning with Chainer PFN得居誠也
[GTCJ2018] Optimizing Deep Learning with Chainer PFN得居誠也
 
mxnetで頑張る深層学習
mxnetで頑張る深層学習mxnetで頑張る深層学習
mxnetで頑張る深層学習
 

Andere mochten auch

Deep dive into deeplearn.js
Deep dive into deeplearn.jsDeep dive into deeplearn.js
Deep dive into deeplearn.jsKai Sasaki
 
GitLabを16万8千光年ワープさせた話(改)
GitLabを16万8千光年ワープさせた話(改)GitLabを16万8千光年ワープさせた話(改)
GitLabを16万8千光年ワープさせた話(改)Wataru NOGUCHI
 
Optimizing Presto Connector on Cloud Storage
Optimizing Presto Connector on Cloud StorageOptimizing Presto Connector on Cloud Storage
Optimizing Presto Connector on Cloud StorageKai Sasaki
 
Alibaba Cloud Serverless
Alibaba Cloud ServerlessAlibaba Cloud Serverless
Alibaba Cloud Serverless真吾 吉田
 
Mbed OS 5の本を書いてみた
Mbed OS 5の本を書いてみたMbed OS 5の本を書いてみた
Mbed OS 5の本を書いてみたJunichi Katsu
 
IoT通信プラットフォーム SORACOM 説明資料
IoT通信プラットフォーム SORACOM 説明資料IoT通信プラットフォーム SORACOM 説明資料
IoT通信プラットフォーム SORACOM 説明資料SORACOM, INC
 
Creating AnswerBot with Keras and TensorFlow (TensorBeat)
Creating AnswerBot with Keras and TensorFlow (TensorBeat)Creating AnswerBot with Keras and TensorFlow (TensorBeat)
Creating AnswerBot with Keras and TensorFlow (TensorBeat)Avkash Chauhan
 
Deep Learningで似た画像を見つける技術 | OHS勉強会#5
Deep Learningで似た画像を見つける技術 | OHS勉強会#5Deep Learningで似た画像を見つける技術 | OHS勉強会#5
Deep Learningで似た画像を見つける技術 | OHS勉強会#5Toshinori Hanya
 
CNNの可視化手法Grad-CAMの紹介~CNNさん、あなたはどこを見ているの?~ | OHS勉強会#6
CNNの可視化手法Grad-CAMの紹介~CNNさん、あなたはどこを見ているの?~ | OHS勉強会#6CNNの可視化手法Grad-CAMの紹介~CNNさん、あなたはどこを見ているの?~ | OHS勉強会#6
CNNの可視化手法Grad-CAMの紹介~CNNさん、あなたはどこを見ているの?~ | OHS勉強会#6Toshinori Hanya
 
How to go into production your machine learning models? #CWT2017
How to go into production your machine learning models? #CWT2017How to go into production your machine learning models? #CWT2017
How to go into production your machine learning models? #CWT2017Cloudera Japan
 
ディープラーニングの産業応用とそれを支える技術
ディープラーニングの産業応用とそれを支える技術ディープラーニングの産業応用とそれを支える技術
ディープラーニングの産業応用とそれを支える技術Shohei Hido
 
GOCON Autumn (Story of our own Monitoring Agent in golang)
GOCON Autumn (Story of our own Monitoring Agent in golang)GOCON Autumn (Story of our own Monitoring Agent in golang)
GOCON Autumn (Story of our own Monitoring Agent in golang)Huy Do
 
IkaLog: Data Collector for Splatoon and Machine Learning (Jan 2017 @ Softbank)
IkaLog: Data Collector for Splatoon and Machine Learning (Jan 2017 @ Softbank)IkaLog: Data Collector for Splatoon and Machine Learning (Jan 2017 @ Softbank)
IkaLog: Data Collector for Splatoon and Machine Learning (Jan 2017 @ Softbank)Takeshi HASEGAWA
 
Golang, make and robotics #gocon
Golang, make and robotics #goconGolang, make and robotics #gocon
Golang, make and robotics #goconHideyuki TAKEI
 
cocos2d-x で PlugAir を 使えるようにしてみた
cocos2d-x で PlugAir を 使えるようにしてみたcocos2d-x で PlugAir を 使えるようにしてみた
cocos2d-x で PlugAir を 使えるようにしてみたHideyuki TAKEI
 
IkaLog: Data Collector for Splatoon and Machine Learning
IkaLog: Data Collector for Splatoon and Machine LearningIkaLog: Data Collector for Splatoon and Machine Learning
IkaLog: Data Collector for Splatoon and Machine Learning Takeshi HASEGAWA
 

Andere mochten auch (20)

Stock prediction
Stock predictionStock prediction
Stock prediction
 
Deep dive into deeplearn.js
Deep dive into deeplearn.jsDeep dive into deeplearn.js
Deep dive into deeplearn.js
 
GitLabを16万8千光年ワープさせた話(改)
GitLabを16万8千光年ワープさせた話(改)GitLabを16万8千光年ワープさせた話(改)
GitLabを16万8千光年ワープさせた話(改)
 
GitLab Prometheus
GitLab PrometheusGitLab Prometheus
GitLab Prometheus
 
Optimizing Presto Connector on Cloud Storage
Optimizing Presto Connector on Cloud StorageOptimizing Presto Connector on Cloud Storage
Optimizing Presto Connector on Cloud Storage
 
Alibaba Cloud Serverless
Alibaba Cloud ServerlessAlibaba Cloud Serverless
Alibaba Cloud Serverless
 
Mbed OS 5の本を書いてみた
Mbed OS 5の本を書いてみたMbed OS 5の本を書いてみた
Mbed OS 5の本を書いてみた
 
IoT通信プラットフォーム SORACOM 説明資料
IoT通信プラットフォーム SORACOM 説明資料IoT通信プラットフォーム SORACOM 説明資料
IoT通信プラットフォーム SORACOM 説明資料
 
Creating AnswerBot with Keras and TensorFlow (TensorBeat)
Creating AnswerBot with Keras and TensorFlow (TensorBeat)Creating AnswerBot with Keras and TensorFlow (TensorBeat)
Creating AnswerBot with Keras and TensorFlow (TensorBeat)
 
Deep Learningで似た画像を見つける技術 | OHS勉強会#5
Deep Learningで似た画像を見つける技術 | OHS勉強会#5Deep Learningで似た画像を見つける技術 | OHS勉強会#5
Deep Learningで似た画像を見つける技術 | OHS勉強会#5
 
CNNの可視化手法Grad-CAMの紹介~CNNさん、あなたはどこを見ているの?~ | OHS勉強会#6
CNNの可視化手法Grad-CAMの紹介~CNNさん、あなたはどこを見ているの?~ | OHS勉強会#6CNNの可視化手法Grad-CAMの紹介~CNNさん、あなたはどこを見ているの?~ | OHS勉強会#6
CNNの可視化手法Grad-CAMの紹介~CNNさん、あなたはどこを見ているの?~ | OHS勉強会#6
 
How to go into production your machine learning models? #CWT2017
How to go into production your machine learning models? #CWT2017How to go into production your machine learning models? #CWT2017
How to go into production your machine learning models? #CWT2017
 
ディープラーニングの産業応用とそれを支える技術
ディープラーニングの産業応用とそれを支える技術ディープラーニングの産業応用とそれを支える技術
ディープラーニングの産業応用とそれを支える技術
 
GOCON Autumn (Story of our own Monitoring Agent in golang)
GOCON Autumn (Story of our own Monitoring Agent in golang)GOCON Autumn (Story of our own Monitoring Agent in golang)
GOCON Autumn (Story of our own Monitoring Agent in golang)
 
IkaLog: Data Collector for Splatoon and Machine Learning (Jan 2017 @ Softbank)
IkaLog: Data Collector for Splatoon and Machine Learning (Jan 2017 @ Softbank)IkaLog: Data Collector for Splatoon and Machine Learning (Jan 2017 @ Softbank)
IkaLog: Data Collector for Splatoon and Machine Learning (Jan 2017 @ Softbank)
 
Golang, make and robotics #gocon
Golang, make and robotics #goconGolang, make and robotics #gocon
Golang, make and robotics #gocon
 
Klabの梅雨対策
Klabの梅雨対策Klabの梅雨対策
Klabの梅雨対策
 
cocos2d-x で PlugAir を 使えるようにしてみた
cocos2d-x で PlugAir を 使えるようにしてみたcocos2d-x で PlugAir を 使えるようにしてみた
cocos2d-x で PlugAir を 使えるようにしてみた
 
IkaLog20170316pynq_dist
IkaLog20170316pynq_distIkaLog20170316pynq_dist
IkaLog20170316pynq_dist
 
IkaLog: Data Collector for Splatoon and Machine Learning
IkaLog: Data Collector for Splatoon and Machine LearningIkaLog: Data Collector for Splatoon and Machine Learning
IkaLog: Data Collector for Splatoon and Machine Learning
 

Ähnlich wie Kerasを用いた3次元検索エンジン@TFUG

SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​SSII
 
pi-7. クラス, メソッド, オブジェクト生成
pi-7. クラス, メソッド, オブジェクト生成pi-7. クラス, メソッド, オブジェクト生成
pi-7. クラス, メソッド, オブジェクト生成kunihikokaneko1
 
論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learningKazuki Adachi
 
コンピュータビジョンで作る未来の栽培技術POL共催セミナー_20220527
コンピュータビジョンで作る未来の栽培技術POL共催セミナー_20220527コンピュータビジョンで作る未来の栽培技術POL共催セミナー_20220527
コンピュータビジョンで作る未来の栽培技術POL共催セミナー_20220527ssuser5ec200
 
【Dll171201】深層学習利活用の紹介 掲載用
【Dll171201】深層学習利活用の紹介 掲載用【Dll171201】深層学習利活用の紹介 掲載用
【Dll171201】深層学習利活用の紹介 掲載用Hirono Jumpei
 
文献紹介:Image Segmentation Using Deep Learning: A Survey
文献紹介:Image Segmentation Using Deep Learning: A Survey文献紹介:Image Segmentation Using Deep Learning: A Survey
文献紹介:Image Segmentation Using Deep Learning: A SurveyToru Tamaki
 
Generative Deep Learning #01
Generative Deep Learning #01Generative Deep Learning #01
Generative Deep Learning #01逸人 米田
 
pi-9. スーパークラス, サブクラス, 継承
pi-9. スーパークラス, サブクラス, 継承pi-9. スーパークラス, サブクラス, 継承
pi-9. スーパークラス, サブクラス, 継承kunihikokaneko1
 
はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep LearningTadaichiro Nakano
 
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hareDAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也harePreferred Networks
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII
 
DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用Kazuki Fujikawa
 
Generative deeplearning #02
Generative deeplearning #02Generative deeplearning #02
Generative deeplearning #02逸人 米田
 
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック 大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック 西岡 賢一郎
 
Large Scale Incremental Learning
Large Scale Incremental LearningLarge Scale Incremental Learning
Large Scale Incremental Learningcvpaper. challenge
 
20210707 ut triz発明9画面slideshare
20210707 ut triz発明9画面slideshare20210707 ut triz発明9画面slideshare
20210707 ut triz発明9画面slideshare芳徳 高木
 
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化RCCSRENKEI
 
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装PythonによるDeep Learningの実装
PythonによるDeep Learningの実装Shinya Akiba
 
[DL輪読会]VoxelPose: Towards Multi-Camera 3D Human Pose Estimation in Wild Envir...
[DL輪読会]VoxelPose: Towards Multi-Camera 3D Human Pose Estimation in Wild Envir...[DL輪読会]VoxelPose: Towards Multi-Camera 3D Human Pose Estimation in Wild Envir...
[DL輪読会]VoxelPose: Towards Multi-Camera 3D Human Pose Estimation in Wild Envir...Deep Learning JP
 
葉物野菜を見極めたい!by Keras
葉物野菜を見極めたい!by Keras葉物野菜を見極めたい!by Keras
葉物野菜を見極めたい!by KerasYuji Kawakami
 

Ähnlich wie Kerasを用いた3次元検索エンジン@TFUG (20)

SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
 
pi-7. クラス, メソッド, オブジェクト生成
pi-7. クラス, メソッド, オブジェクト生成pi-7. クラス, メソッド, オブジェクト生成
pi-7. クラス, メソッド, オブジェクト生成
 
論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning
 
コンピュータビジョンで作る未来の栽培技術POL共催セミナー_20220527
コンピュータビジョンで作る未来の栽培技術POL共催セミナー_20220527コンピュータビジョンで作る未来の栽培技術POL共催セミナー_20220527
コンピュータビジョンで作る未来の栽培技術POL共催セミナー_20220527
 
【Dll171201】深層学習利活用の紹介 掲載用
【Dll171201】深層学習利活用の紹介 掲載用【Dll171201】深層学習利活用の紹介 掲載用
【Dll171201】深層学習利活用の紹介 掲載用
 
文献紹介:Image Segmentation Using Deep Learning: A Survey
文献紹介:Image Segmentation Using Deep Learning: A Survey文献紹介:Image Segmentation Using Deep Learning: A Survey
文献紹介:Image Segmentation Using Deep Learning: A Survey
 
Generative Deep Learning #01
Generative Deep Learning #01Generative Deep Learning #01
Generative Deep Learning #01
 
pi-9. スーパークラス, サブクラス, 継承
pi-9. スーパークラス, サブクラス, 継承pi-9. スーパークラス, サブクラス, 継承
pi-9. スーパークラス, サブクラス, 継承
 
はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep Learning
 
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hareDAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
 
DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用
 
Generative deeplearning #02
Generative deeplearning #02Generative deeplearning #02
Generative deeplearning #02
 
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック 大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
 
Large Scale Incremental Learning
Large Scale Incremental LearningLarge Scale Incremental Learning
Large Scale Incremental Learning
 
20210707 ut triz発明9画面slideshare
20210707 ut triz発明9画面slideshare20210707 ut triz発明9画面slideshare
20210707 ut triz発明9画面slideshare
 
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
 
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装PythonによるDeep Learningの実装
PythonによるDeep Learningの実装
 
[DL輪読会]VoxelPose: Towards Multi-Camera 3D Human Pose Estimation in Wild Envir...
[DL輪読会]VoxelPose: Towards Multi-Camera 3D Human Pose Estimation in Wild Envir...[DL輪読会]VoxelPose: Towards Multi-Camera 3D Human Pose Estimation in Wild Envir...
[DL輪読会]VoxelPose: Towards Multi-Camera 3D Human Pose Estimation in Wild Envir...
 
葉物野菜を見極めたい!by Keras
葉物野菜を見極めたい!by Keras葉物野菜を見極めたい!by Keras
葉物野菜を見極めたい!by Keras
 

Mehr von Ogushi Masaya

Deep reinforcement learning for imbalanced classification
Deep reinforcement learning for imbalanced classification Deep reinforcement learning for imbalanced classification
Deep reinforcement learning for imbalanced classification Ogushi Masaya
 
Hidden technical debt in machine learning systems(日本語資料)
Hidden technical debt in machine learning systems(日本語資料)Hidden technical debt in machine learning systems(日本語資料)
Hidden technical debt in machine learning systems(日本語資料)Ogushi Masaya
 
Deep and confident prediction for time series at uber
Deep and confident prediction for time series at uberDeep and confident prediction for time series at uber
Deep and confident prediction for time series at uberOgushi Masaya
 
A dual stage attention-based recurrent neural network for time series prediction
A dual stage attention-based recurrent neural network for time series predictionA dual stage attention-based recurrent neural network for time series prediction
A dual stage attention-based recurrent neural network for time series predictionOgushi Masaya
 
How to apply deep learning to 3 d objects
How to apply deep learning to 3 d objectsHow to apply deep learning to 3 d objects
How to apply deep learning to 3 d objectsOgushi Masaya
 
人工知能の技術で有名なニューラルネットワークのフレームワークである #Chainer を用いた対話botを使った俺の屍を越えてゆけ slide share
人工知能の技術で有名なニューラルネットワークのフレームワークである #Chainer を用いた対話botを使った俺の屍を越えてゆけ  slide share人工知能の技術で有名なニューラルネットワークのフレームワークである #Chainer を用いた対話botを使った俺の屍を越えてゆけ  slide share
人工知能の技術で有名なニューラルネットワークのフレームワークである #Chainer を用いた対話botを使った俺の屍を越えてゆけ slide shareOgushi Masaya
 
Step by Stepで学ぶ自然言語処理における深層学習の勘所
Step by Stepで学ぶ自然言語処理における深層学習の勘所Step by Stepで学ぶ自然言語処理における深層学習の勘所
Step by Stepで学ぶ自然言語処理における深層学習の勘所Ogushi Masaya
 
Wikipedia Entity VectorとWordNetで
対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...
Wikipedia Entity VectorとWordNetで
対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...Wikipedia Entity VectorとWordNetで
対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...
Wikipedia Entity VectorとWordNetで
対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...Ogushi Masaya
 
Chainer with natural language processing hands on
Chainer with natural language processing hands onChainer with natural language processing hands on
Chainer with natural language processing hands onOgushi Masaya
 

Mehr von Ogushi Masaya (9)

Deep reinforcement learning for imbalanced classification
Deep reinforcement learning for imbalanced classification Deep reinforcement learning for imbalanced classification
Deep reinforcement learning for imbalanced classification
 
Hidden technical debt in machine learning systems(日本語資料)
Hidden technical debt in machine learning systems(日本語資料)Hidden technical debt in machine learning systems(日本語資料)
Hidden technical debt in machine learning systems(日本語資料)
 
Deep and confident prediction for time series at uber
Deep and confident prediction for time series at uberDeep and confident prediction for time series at uber
Deep and confident prediction for time series at uber
 
A dual stage attention-based recurrent neural network for time series prediction
A dual stage attention-based recurrent neural network for time series predictionA dual stage attention-based recurrent neural network for time series prediction
A dual stage attention-based recurrent neural network for time series prediction
 
How to apply deep learning to 3 d objects
How to apply deep learning to 3 d objectsHow to apply deep learning to 3 d objects
How to apply deep learning to 3 d objects
 
人工知能の技術で有名なニューラルネットワークのフレームワークである #Chainer を用いた対話botを使った俺の屍を越えてゆけ slide share
人工知能の技術で有名なニューラルネットワークのフレームワークである #Chainer を用いた対話botを使った俺の屍を越えてゆけ  slide share人工知能の技術で有名なニューラルネットワークのフレームワークである #Chainer を用いた対話botを使った俺の屍を越えてゆけ  slide share
人工知能の技術で有名なニューラルネットワークのフレームワークである #Chainer を用いた対話botを使った俺の屍を越えてゆけ slide share
 
Step by Stepで学ぶ自然言語処理における深層学習の勘所
Step by Stepで学ぶ自然言語処理における深層学習の勘所Step by Stepで学ぶ自然言語処理における深層学習の勘所
Step by Stepで学ぶ自然言語処理における深層学習の勘所
 
Wikipedia Entity VectorとWordNetで
対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...
Wikipedia Entity VectorとWordNetで
対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...Wikipedia Entity VectorとWordNetで
対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...
Wikipedia Entity VectorとWordNetで
対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...
 
Chainer with natural language processing hands on
Chainer with natural language processing hands onChainer with natural language processing hands on
Chainer with natural language processing hands on
 

Kerasを用いた3次元検索エンジン@TFUG