SlideShare ist ein Scribd-Unternehmen logo
1 von 40
Downloaden Sie, um offline zu lesen
DEEPFOREST:
TOWARDS AN
ALTERNATIVE TO DEEP
NEURAL NETWORKS
Zhi-Hua Zhou and Ji Feng
2017年10月20日 DLゼミ
発表者 B4 吉田拓海
1
論文概要
■ 現在の深層モデル
– ニューラルネットワーク
■ Deep Forest(gcForest)を提案
– 決定木アンサンブルアプローチ
– 広範囲のタスクでDNNと競える高い性能
■ IJCAI 2017
■ 論文URL
– https://arxiv.org/abs/1702.08835
Deep Learning が他のモジュールでも実現できるか?
2
関連研究
■ Deep neural decision forests. [Kontschieder et al.,2015]
– DNNの特徴を利用したランダムフォレスト
– DNNより性能が向上
– ICCV2015 best paper
– DNNとの組み合わせ
■ gcForestはDNNの代替
3
Deep Neural Network
■ 強力
■ 様々なタスクで成功
– 特に視覚、音声情報を含むタスク
■ 欠点
– 訓練データが大量に必要
■ 現実のタスクでは、ラベル付けされたデータが不足
■ ラベリングのコストが高い
– モデルが複雑
■ 訓練には強力な計算設備が必要
■ ハイパーパラメータが多い上に、学習性能がその調整に依存
■ 理論的な解析が難しい
4
Deep Neural Network
■ 表現学習
– 生の入力から特徴を抽出する
– DNNにとって重要
■ 大規模なデータを活用するためには、学習モデルのキャパ
シティも大きい必要がある
■ gcForestを提案
これらの特性を他の学習モデルに与えることが出来れば、
DNNと競える性能を達成することができるのでは?
5
gcForest
■ カスケード構造
– 表現学習を可能に
– カスケードレベル数は適応的に決定可能
■ モデルの大きさ(複雑さ)を適応的に決定
■ Multi-grained scanning
– 表現能力を高める
6
gcForest
■ ハイパーパラメータ数が少ない
– デフォルトで様々なタスクに対応可能(堅牢)
■ DNNに対して競争力の高い性能を持つ一方で訓練時間は短い
■ この論文の範囲を超えるけど理論的分析も簡単
7
カスケード構造
■ 各レベルは、その前のレベルで処理された特徴情報を受け
取り、その処理結果を次のレベルに渡す
8
カスケード構造
■ 多様性がアンサンブル構築にとって重要
– 異なる種類のフォレストを使用
– 図は各レベルが2つのランダムフォレスト(黒)、2つの
完全ランダム決定木フォレスト (青)で構成
9
カスケード構造
■ インスタンスが与えられると、インスタンスが属するノー
ドのトレーニング例のクラスごとの割合をカウントし、全
ツリーの平均をとる
10
各フォレストの学習
■ 完全ランダム決定木フォレスト
– 500個の木を含む
– 決定木の各ノードで分割のための特徴をランダムに選択
– 各ノードが同じクラスのインスタンスだけとなるまで成長
■ ランダムフォレスト
– 500個の木を含む
– 𝑑個の特徴を候補としてランダムに選択し、その中から最も
Gini係数の良いものを分割に使用することで作成(d:入力特徴
数)
11
各フォレストの学習
■ K-fold cross validation(実験ではK=3)
■ カスケードの拡張
1. 新しいレベルを拡張
2. カスケード全体の性能を検証セットで推定
3. 性能が大幅に向上しなければ、学習終了
– カスケードレベルが自動的に決定される
– DNNがモデルの複雑さが固定されているのとは対照的に、適切
な時に学習を終了し、モデルの複雑さを適応的に決定
– 大規模なものに限らずに、様々なスケールのデータに適用可
12
Multi-Grained Scanning
■ 特徴間の関係を扱う目的
– CNN、RNNに触発
13
システムの概要
■ gcForestの全体的な手順(例)
– 元の入力が400次元
– 3つのウィンドウサイズがMulti-GrainedScanningに使用
– 予測するクラスは3クラス
14
システムの概要
■ m個の訓練例について、サイズ100のウィンドウは、301×mの100次元
訓練例のデータセットを生成する
15
システムの概要
■ これらのデータは、完全ランダム決定木フォレストと、ランダム
フォレストの訓練に使用
■ 1806次元の特徴ベクトルが得られる
– カスケードの1段目を訓練するのに使用(1 𝐴)
16
システムの概要
■ 同様に、サイズ200は1206次元、サイズ300は606次元の特徴ベクトル
を生成する
– それぞれ2段目(1 𝐵)、3段目(1 𝐶)の訓練に使用
17
システムの概要
■ カスケードを成長させる(段を増やしていく)
– 検証が収束するまで繰り返す
18
システムの概要
■ 最終的な予測は、最後のレベルで4つの3次元ベクトルを集約し、集
約された最大値を有するクラスをとる
19
ハイパーパラメータ
■ DNNとgcForestの比較
– 太字:比較的大きな影響力をもつパラメータ
– 「?」:デフォルト値が不明、タスクによって異なる設定が必要
20
実験
■ gcForest, DNN, その他学習アルゴリズムの比較
■ 目的
– gcForestが簡単なパラメータ調整で、DNNと競える性能を達成で
きることを検証する
■ 全ての実験で、gcForestは同じカスケード構造を使用
– 各レベルは、それぞれ500個の木を含む4つの完全ランダム決定
木フォレストと4つのランダムフォレストで構成
– タスク固有のチューニングを行うと性能が向上することに注意
21
実験
■ カスケードの訓練
– カスケードレベル数は自動的に決定
– 訓練セットを育成セットと推定セットに分割(8:2)
■ 育成セットを使用してカスケードを拡大
■ 推定セットを使用して性能を推定する
– 新しいレベルを増やしても性能が向上しない場合はカスケード
の成長は終了し、推定レベル数を取得
– 成長セットと推定セットをマージした訓練セットで再訓練
22
実験
■ Mult-Grained Scanning
– 3つのウィンドウサイズを使用
– 入力特徴がd次元の場合
■ 𝑑/16 , 𝑑/8 , 𝑑/4
– 入力特徴がパネル構造(画像など)の場合ウィンドウも
パネル構造
23
実験
■ DNN
– 活性化関数:ReLU
– 損失関数:クロスエントロピー
– 最適化手法:adadelta
– Dropout率:0.25 , 0.5
■ (データのスケールに応じて使用)
– ネットワーク構造のハイパーパラメータはタスク間で固
定できない
■ 検証セットで様々なアーキテクチャを検討し、最高の性能
も持つものを選択し、訓練セットで再訓練し、テスト精度
を報告
24
実験結果①(画像分類)
■ MNIST
– 0~9の手書きの数字画像
– サイズ28×28
– 60000の訓練(および検証)データ
– 10000のテストデータ
25
実験結果①(画像分類)
■ LeNet-5
– DropoutとReLUを備えたLeNetの最新版
■ Deep Belief Net
– A fast learning algorithm for deep belief nets. [Hinton et al.,
2006]
■ RandomForest
– 2000本の木を含むランダムフォレスト
26
実験結果②(顔認識)
■ ORLデータセット
– 40人のグレースケール顔画像
– 40人×10枚=計400枚
■ 1人当たり、5枚/7枚/9枚の画像を訓練に使用し、残りの画像
でテストを行う
27
実験結果②(顔認識)
■ CNN(他の構成も試した中で最高の性能)
– 3×3カーネルの32個の特徴マップを生成する2つの畳込み層
からなる
– 各畳込み層は2×2のマックスプーリング層を持つ
– その後ユニット数128、40個の全結合層
– 出力層はソフトマックス
– 活性化関数:ReLU
– 損失関数:クロスエントロピー
– Dropout率:0.25
– 最適化手法:adadelta
– バッチサイズ:10
– エポック数:50
■ kNN
– k=3
28
実験結果②(顔認識)
■ gcForestは3つの全ケースにおいて良い結果が出た
29
実験結果③(音楽分類)
■ GTZANデータセット
– 10ジャンルの音楽クリップが含まれる
– 1ジャンル100トラック
– 各トラックは30秒間
– 訓練用の700クリップとテスト用300クリップに分割
– 30秒間の音楽クリップを表現するために、MFCC特徴
を使用する
■ オリジナル音波を1280×13の特徴行列に変換
30
実験結果③(音楽分類)
■ CNN
– 畳込み層として32個の特徴マップを生成する13×8
カーネルを使用し、それぞれにプーリング層が続く
– その後ユニット数1024と512の全結合層
– 出力層はソフトマックス
■ MLP
– 1024と512の全結合
■ CNN、MLP
– 活性化関数:ReLU
– 損失関数:カテゴリクロスエントロピー
31
実験結果④(手の動きの認識)
■ sEMGデータセット
– 手の動きの筋電図の時系列データ
– 6つの手の動きの1つにそれぞれ属する1800個のデータ
– 筋電図センサが1秒間に500個の特徴を捉え、各データは3000個
の特徴をもつ(6秒?)
32
実験結果④(手の動きの認識)
■ MLP
– 入力-1024-512-出力
■ LSTM
– 隠れユニット数:128
– シーケンス長:6
33
実験結果⑤(感情分類)
■ IMDBデータセット
– 訓練用:25000件の映画レビュー
– テスト用:25000件の映画レビュー
– レビューはtf-idf特徴量によって表される
■ tf:単語の出現頻度を表す
– 文章dにおける単語tのtf=
𝑑内での 𝑡の出現回数
𝑑内の全単語数
■ idf:単語が
– 単語tのidf=log
𝑁
𝑡が出現する文章数
+ 1
■ tf-idf = tf * idf
34
実験結果⑤(感情分類)
■ CNN
– Convolutional neural networks for sentence classification. [Kim,
2014]
■ MLP
– 入力-1024-512-256-出力
■ gcForest
– tf-idfは空間的関係、連続的関係を持たないことから、Multi-
grained scanningは使用しない
35
実験結果⑤(感情分類)
■ 計算時間(訓練)
– 実験環境
■ CPU:Intel E5 2695 v4 CPUs (18 cores) ×2
■ GPU:NVIDIATITAN X
■ IMDBデータセット:特徴5000、25000例
– gcForest(CPU)
■ カスケードレベル毎に267.1秒
■ 9レベルで終了したので合計で2404秒(40分)
– MLP(CPU)
■ 収束に50エポック
■ 1エポックに93秒、合計4650秒(77.5分)
– MLP(GPU)
■ 1エポックに14秒、合計700秒(11.6分)
36
実験結果⑥(低次元データ)
■ UCIデータセット
– LETTER
■ 文字画像の特徴データベース、手紙を特定
– ADULT
■ 国税調査データに基づいて、所得が$50,000/年を超える
かどうかを予測
– YEAST
■ タンパク質の細胞局在部位の予測
特徴数 訓練データ数 テストデータ数
LETTER 16 16,000 4,000
ADULT 14 32,561 16,281
YEAST 8 1,038 446
37
実験結果⑥(低次元データ)
■ MLP(各データで最高の性能をもつ構造)
– LETTER :入力-70-50-出力
– ADULT :入力-30-20-出力
– YEAST :入力-50-30-出力
■ gcForest
– Multi-grained scanningは使用しない
– LETTER,ADULT,YEAST 全てで同じ設定
38
実験結果⑦
(Multi-Grained Scanning)
■ Multi-Grained Scanningの寄与を調べるための実験
■ 空間的、連続的な特徴関係が存在する場合、Multi-Grained Scanning
は性能を向上させる
39
結論
■ gcForestは実験でDNNと競える性能を示した
■ gcForestはハイパーパラメータが少ない、
■ また同じパラメータ設定でも様々なタスクで優れた性能が
得られる
40

Weitere ähnliche Inhalte

Was ist angesagt?

A simple neural network mnodule for relation reasoning
A simple neural network mnodule for relation reasoningA simple neural network mnodule for relation reasoning
A simple neural network mnodule for relation reasoning
harmonylab
 
0から理解するニューラルネットアーキテクチャサーチ(NAS)
0から理解するニューラルネットアーキテクチャサーチ(NAS)0から理解するニューラルネットアーキテクチャサーチ(NAS)
0から理解するニューラルネットアーキテクチャサーチ(NAS)
MasanoriSuganuma
 

Was ist angesagt? (20)

SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
 
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
 
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
 
CNNの構造最適化手法について
CNNの構造最適化手法についてCNNの構造最適化手法について
CNNの構造最適化手法について
 
[DL輪読会]StyleNet: Generating Attractive Visual Captions with Styles
[DL輪読会]StyleNet: Generating Attractive Visual Captions with Styles[DL輪読会]StyleNet: Generating Attractive Visual Captions with Styles
[DL輪読会]StyleNet: Generating Attractive Visual Captions with Styles
 
ResNetの仕組み
ResNetの仕組みResNetの仕組み
ResNetの仕組み
 
A3C解説
A3C解説A3C解説
A3C解説
 
PyTorch, PixyzによるGenerative Query Networkの実装
PyTorch, PixyzによるGenerative Query Networkの実装PyTorch, PixyzによるGenerative Query Networkの実装
PyTorch, PixyzによるGenerative Query Networkの実装
 
画像認識のための深層学習
画像認識のための深層学習画像認識のための深層学習
画像認識のための深層学習
 
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック 大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
 
A simple neural network mnodule for relation reasoning
A simple neural network mnodule for relation reasoningA simple neural network mnodule for relation reasoning
A simple neural network mnodule for relation reasoning
 
2018 07 02_dense_pose
2018 07 02_dense_pose2018 07 02_dense_pose
2018 07 02_dense_pose
 
0から理解するニューラルネットアーキテクチャサーチ(NAS)
0から理解するニューラルネットアーキテクチャサーチ(NAS)0から理解するニューラルネットアーキテクチャサーチ(NAS)
0から理解するニューラルネットアーキテクチャサーチ(NAS)
 
20150930
2015093020150930
20150930
 
効率的学習 / Efficient Training(メタサーベイ)
効率的学習 / Efficient Training(メタサーベイ)効率的学習 / Efficient Training(メタサーベイ)
効率的学習 / Efficient Training(メタサーベイ)
 
Overcoming Catastrophic Forgetting in Neural Networks読んだ
Overcoming Catastrophic Forgetting in Neural Networks読んだOvercoming Catastrophic Forgetting in Neural Networks読んだ
Overcoming Catastrophic Forgetting in Neural Networks読んだ
 
【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainabi...
【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainabi...【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainabi...
【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainabi...
 
論文 Solo Advent Calendar
論文 Solo Advent Calendar論文 Solo Advent Calendar
論文 Solo Advent Calendar
 
[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey
 
[DL輪読会]MetaFormer is Actually What You Need for Vision
[DL輪読会]MetaFormer is Actually What You Need for Vision[DL輪読会]MetaFormer is Actually What You Need for Vision
[DL輪読会]MetaFormer is Actually What You Need for Vision
 

Andere mochten auch

Andere mochten auch (20)

Colorful image colorization
Colorful image colorizationColorful image colorization
Colorful image colorization
 
Deep voice
Deep voiceDeep voice
Deep voice
 
AI勉強会用スライド
AI勉強会用スライドAI勉強会用スライド
AI勉強会用スライド
 
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Network
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial NetworkUnpaired Image-to-Image Translation using Cycle-Consistent Adversarial Network
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Network
 
DeepLoco
DeepLocoDeepLoco
DeepLoco
 
Generating Videos with Scene Dynamics
Generating Videos with Scene DynamicsGenerating Videos with Scene Dynamics
Generating Videos with Scene Dynamics
 
Globally and Locally Consistent Image Completion
Globally and Locally Consistent Image CompletionGlobally and Locally Consistent Image Completion
Globally and Locally Consistent Image Completion
 
勉強会用スライド
勉強会用スライド勉強会用スライド
勉強会用スライド
 
勉強会用スライド
勉強会用スライド勉強会用スライド
勉強会用スライド
 
Ai勉強会20170127
Ai勉強会20170127Ai勉強会20170127
Ai勉強会20170127
 
DLゼミ20170522
DLゼミ20170522DLゼミ20170522
DLゼミ20170522
 
7月10日(月)dl
7月10日(月)dl7月10日(月)dl
7月10日(月)dl
 
Mobilenet
MobilenetMobilenet
Mobilenet
 
【2016.04】cvpaper.challenge2016
【2016.04】cvpaper.challenge2016【2016.04】cvpaper.challenge2016
【2016.04】cvpaper.challenge2016
 
【2016.03】cvpaper.challenge2016
【2016.03】cvpaper.challenge2016【2016.03】cvpaper.challenge2016
【2016.03】cvpaper.challenge2016
 
【2016.01】(2/3)cvpaper.challenge2016
【2016.01】(2/3)cvpaper.challenge2016【2016.01】(2/3)cvpaper.challenge2016
【2016.01】(2/3)cvpaper.challenge2016
 
【2016.01】(1/3)cvpaper.challenge2016
【2016.01】(1/3)cvpaper.challenge2016【2016.01】(1/3)cvpaper.challenge2016
【2016.01】(1/3)cvpaper.challenge2016
 
【2016.02】cvpaper.challenge2016
【2016.02】cvpaper.challenge2016【2016.02】cvpaper.challenge2016
【2016.02】cvpaper.challenge2016
 
【2016.01】(3/3)cvpaper.challenge2016
【2016.01】(3/3)cvpaper.challenge2016【2016.01】(3/3)cvpaper.challenge2016
【2016.01】(3/3)cvpaper.challenge2016
 
【2016.05】cvpaper.challenge2016
【2016.05】cvpaper.challenge2016【2016.05】cvpaper.challenge2016
【2016.05】cvpaper.challenge2016
 

Ähnlich wie Deep Forest: Towards An Alternative to Deep Neural Networks

DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
RCCSRENKEI
 

Ähnlich wie Deep Forest: Towards An Alternative to Deep Neural Networks (20)

Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
 
MIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearningMIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearning
 
論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
 
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
 
Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷
 
Generative deeplearning #02
Generative deeplearning #02Generative deeplearning #02
Generative deeplearning #02
 
【CVPR 2020 メタサーベイ】Neural Generative Models
【CVPR 2020 メタサーベイ】Neural Generative Models【CVPR 2020 メタサーベイ】Neural Generative Models
【CVPR 2020 メタサーベイ】Neural Generative Models
 
AIがAIを生み出す?
AIがAIを生み出す?AIがAIを生み出す?
AIがAIを生み出す?
 
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
 
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hareDAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
 
[DL輪読会]Measuring abstract reasoning in neural networks
[DL輪読会]Measuring abstract reasoning in neural networks[DL輪読会]Measuring abstract reasoning in neural networks
[DL輪読会]Measuring abstract reasoning in neural networks
 
E-SOINN
E-SOINNE-SOINN
E-SOINN
 
TabNetの論文紹介
TabNetの論文紹介TabNetの論文紹介
TabNetの論文紹介
 
(2022年3月版)深層学習によるImage Classificaitonの発展
(2022年3月版)深層学習によるImage Classificaitonの発展(2022年3月版)深層学習によるImage Classificaitonの発展
(2022年3月版)深層学習によるImage Classificaitonの発展
 
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
 
【Deep Learning】AlexNetの解説&実装 by PyTorch (colabリンク付き)
【Deep Learning】AlexNetの解説&実装 by PyTorch (colabリンク付き)【Deep Learning】AlexNetの解説&実装 by PyTorch (colabリンク付き)
【Deep Learning】AlexNetの解説&実装 by PyTorch (colabリンク付き)
 
FPGAX2016 ドキュンなFPGA
FPGAX2016 ドキュンなFPGAFPGAX2016 ドキュンなFPGA
FPGAX2016 ドキュンなFPGA
 
R-CNNの原理とここ数年の流れ
R-CNNの原理とここ数年の流れR-CNNの原理とここ数年の流れ
R-CNNの原理とここ数年の流れ
 
ImageNet Classification with Deep Convolutional Neural Networks
ImageNet Classification with Deep Convolutional Neural NetworksImageNet Classification with Deep Convolutional Neural Networks
ImageNet Classification with Deep Convolutional Neural Networks
 

Mehr von harmonylab

【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
harmonylab
 
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
harmonylab
 
形態素解析を用いた帝国議会議事速記録の変遷に関する研究
形態素解析を用いた帝国議会議事速記録の変遷に関する研究形態素解析を用いた帝国議会議事速記録の変遷に関する研究
形態素解析を用いた帝国議会議事速記録の変遷に関する研究
harmonylab
 

Mehr von harmonylab (20)

【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
 
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
 
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
 
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
 
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
 
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
 
DLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
DLゼミ: MobileOne: An Improved One millisecond Mobile BackboneDLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
DLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
 
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat ModelsDLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
 
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose EstimationDLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
 
Voyager: An Open-Ended Embodied Agent with Large Language Models
Voyager: An Open-Ended Embodied Agent with Large Language ModelsVoyager: An Open-Ended Embodied Agent with Large Language Models
Voyager: An Open-Ended Embodied Agent with Large Language Models
 
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose EstimationDLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
 
ReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language ModelsReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language Models
 
形態素解析を用いた帝国議会議事速記録の変遷に関する研究
形態素解析を用いた帝国議会議事速記録の変遷に関する研究形態素解析を用いた帝国議会議事速記録の変遷に関する研究
形態素解析を用いた帝国議会議事速記録の変遷に関する研究
 
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
 
灯油タンク内の液面高計測を用いた 灯油残量推定システムに関する研究
灯油タンク内の液面高計測を用いた灯油残量推定システムに関する研究灯油タンク内の液面高計測を用いた灯油残量推定システムに関する研究
灯油タンク内の液面高計測を用いた 灯油残量推定システムに関する研究
 
深層自己回帰モデルを用いた俳句の生成と評価に関する研究
深層自己回帰モデルを用いた俳句の生成と評価に関する研究深層自己回帰モデルを用いた俳句の生成と評価に関する研究
深層自己回帰モデルを用いた俳句の生成と評価に関する研究
 
競輪におけるレーティングシステムを用いた予想記事生成に関する研究
競輪におけるレーティングシステムを用いた予想記事生成に関する研究競輪におけるレーティングシステムを用いた予想記事生成に関する研究
競輪におけるレーティングシステムを用いた予想記事生成に関する研究
 
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
 
A Study on Estimation of Household Kerosene Consumption for Optimization of D...
A Study on Estimation of Household Kerosene Consumption for Optimization of D...A Study on Estimation of Household Kerosene Consumption for Optimization of D...
A Study on Estimation of Household Kerosene Consumption for Optimization of D...
 
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
 

Deep Forest: Towards An Alternative to Deep Neural Networks