18. 分散深層学習:マルチGPUとマルチノード
• 1ノード内での並列列計算
• マルチスレッド・マルチGPU
• ⼀一部の深層学習フレームはマルチGPU対応(FAIRなど)
• 複数ノード(マルチノード)での 並列列計算
• CPU上で分散機械学習:DistBelief, Project Adam, H2O
• GPU上で分散深層学習:COTS HPC, Minerva+Parameter Server
GPU GPU GPU
CPU
マルチGPU
G G G
C
G G G
C
G G G
C
マルチノード
18
「分散機械学習」と⾔言ったら
通常マルチノードの意味
19. 分散深層学習:Model ParallelとData Parallel
• Model Parallel:NNを分割。各ノードはNNの各担当パーツを最適化。
• Data Parallel:訓練データセットを分割。各ノードはコピーしたNNを割り振られた訓練データ
で最適化。ノード間で学習結果を適宜共有する。
Model Parallelと
Data Parallelの
組み合わせも可能
Model Parallel Data Parallel
学習結果の共有
19
39. 深層学習フレームワークの現状
固定⻑⾧長データから可変⻑⾧長データへ
x
1
x
N
h
1
h
H
k
M
k
1
⼊入出⼒力力 応⽤用 機械学習⼿手法 アーキテクチャ
これまでの主流流 固定⻑⾧長 画像・⾳音声 分類・回帰 全結合, CNN
これからの主流流 可変⻑⾧長 映像・⾳音声
⾃自然⾔言語・センサー
強化学習
プログラム実⾏行行
RNN, LSTM,
NTM
CNN(LeNet)*
RNN LSTM **
39
* Deep Learning Tutorials http://deeplearning.net/tutorial/lenet.html
** Graves, Alex, et al. "A novel connectionist system for unconstrained handwriting recognition.
" Pattern Analysis and Machine Intelligence, IEEE Transactions on 31.5 (2009): 855-868. Figure 11
LSTM=Long Short-term Memory
NTM=Neural Turing Machine