SlideShare ist ein Scribd-Unternehmen logo
1 von 16
Downloaden Sie, um offline zu lesen
LONG SHORT-TERM
MEMORY
NEURAL COMUPATION 9(8):1735-1780, 1997
Sepp Hochreiter Fakultat fur Informatik Technische Universit at Munchen
80290 Munchen, Germany
Jurgen Schmidhuber IDSIA Corso Elvezia 36 6900 Lugano, Switzerland
時系列データの問題
時系列データ:𝑥", 𝑥$, 𝑥% … , 𝑥'
添字tはデータの種類によって異なる
時系列データの例:⽂章・対話の⽣成 tは単語を前から並べたときの番号
⾳声認識 tは⼀定の時間間隔(数ms)でのサンプル時間
映像認識 etc.
時系列データの問題例:
⽂章・対話の⽣成 今までの単語列を⼊⼒として、もっともらしい次の単語を予測する
1
背景
2
背景
sequential:	1	bit	at	a	time Gradient-based	RNNs1980s:	BPTT,	RTRL	- gradients	based	on	
“unfolding”	etc.	(Williams,	Werbos,	Robinson)
Recurrent networks(詳しくは後⽇説明します)
Recurrent networks:従来の⽅法
⼊⼒信号と教師信号の誤差を最⼩にするため、主に2つの⼿法が⽤いられた
“Back-Propagation Through Time”
(BPTT, e.g., Williams and Zipser 1992,)
“Real-Time Recurrent Learning”
(RTRL,Werbos 1988RTRL, e.g., Robinson and Fallside 1987)
これらのアルゴリズム特徴:誤差逆伝播の勾配法
⼤きな難点
逆伝搬された誤差の時間的進展は、重みのサイズに指数関数的に依存する
⾔い換えると、勾配は時間ステップに指数関数的に⽐例する
勾配消失問題(Hochreiter 1991)
⻑期にわたる誤差逆伝播では勾配の爆発・消失が⽣じる
3
背景
ex.)ステップtにおけるユニットuからqステップ前のユニットv
への誤差の逆伝播について考える
逆伝播の公式より
… ユニットjへの出⼒
… ユニットjの重み
… ユニットkの出⼒誤差(ykは出⼒値、tkは⽬標変数)
従って誤差は
𝜕𝑣*(𝑡 − 𝑞)
𝜕𝑣0(𝑡)
=
𝑓3
*
𝑛𝑒𝑡* 𝑡 − 1 𝑤0*																																													𝑞 = 1
𝑓3
*
𝑛𝑒𝑡* 𝑡 − 𝑞 9
𝜕𝑣* 𝑡 − 𝑞 + 1
𝜕𝑣0 𝑡
;
<="
𝑤<*								𝑞 > 1
4
背景
ex.)ステップtにおけるユニットuからqステップ前のユニットv
への誤差の逆伝播について考える
誤差は
𝜕𝑣*(𝑡 − 𝑞)
𝜕𝑣0(𝑡)
=
𝑓3
*
𝑛𝑒𝑡* 𝑡 − 1 𝑤0*																																														𝑞 = 1
𝑓3
*
𝑛𝑒𝑡* 𝑡 − 𝑞 9
𝜕𝑣* 𝑡 − 𝑞 + 1
𝜕𝑣0 𝑡
;
<="
𝑤<*									𝑞 > 1
𝑘@ = 𝑣, 𝑘A, = 𝑢を⽤いると、
𝜕𝑣*(𝑡 − 𝑞)
𝜕𝑣0(𝑡)
= 9 … 9 C 𝑓3
<D
𝑛𝑒𝑡<D
𝑡 − 𝑚 𝑤<D
@
F="
;
<GHI="
;
<I="
𝑘FJ"
|𝑓3
<D
𝑛𝑒𝑡<D
𝑡 − 𝑚 𝑤<D
𝑘FJ"| > 1.0			𝑓𝑜𝑟	𝑎𝑙𝑙	𝑚 発散(爆発)
𝑓3
<D
𝑛𝑒𝑡<D
𝑡 − 𝑚 𝑤<D
𝑘FJ" < 1.0			𝑓𝑜𝑟	𝑎𝑙𝑙	𝑚 収束(消失)
5
背景
勾配消失問題
LSTM(Long short-term memory)は、
RNN(Recurrent Neural Network)の拡張として、
時系列データ(sequential data)に対するモデル、
あるいは構造(architecture)の1種
その名は、Long term memory(⻑期記憶)とShort term memory(短期記憶)という
神経科学における⽤語から取られている
LSTMはRNNの中間層のユニットをLSTM blockと呼ばれるメモリと3つのゲートを持つ
ブロックに置き換えることで実現されている
従来のRNNでは1000ステップにわたる
⻑期の系列は学習困難であった
LSTMでは1000ステップにわたる
⻑期依存に加え、短期依存も可能!
6
LSTM(1990s〜)
LSTMには近年のLSTMに到るまでに様々な改良がされてきた
近年のLSTMまでに4つの代表的な世代がある
1) Original (95,97年)[Hochreiter & Schmidhuber, 95;97]
2) Forget Gateの導⼊ (99年)[Gers & Schmidhuber, 99]
3) Peephole Connectionの導⼊ (00年)[Gers & Schmidhuber, 00]
4) Full Gradientの導⼊ (05年)[Graves & Schmidhuber, 05]
7
LSTM(1990s〜)
Original LSTM
LSTMには⼊⼒値と2つのゲートがあり、
それぞれ「実際の⼊⼒値」「⼊⼒ゲート」
「出⼒ゲート」となっている
⼊⼒ゲートと出⼒ゲートは⼊⼒値と
内部のメモリセルの状態(state)制御に
使⽤される
⼊⼒層の出⼒xt及び中間層の1ステップ前
の出⼒yt-1は、それぞれ3か所に同時に
⼊⼒として供給される
各⼊⼒は重み⾏列wz,in,out ,Rz,in,out
によって重み付けされ、加算されのち
各ゲートの活性化関数を通る
CEC(Constant Error Carousel)とは
勾配消失問題に対応する機能を持ったアプローチ
8
第1世代LSTM(1995〜)
・
・
・
⼊⼒層の出⼒xt
1ステップ前のユニットの出⼒yt-1
出力ゲート
入力ゲート
実際の入力値
𝑓3
<D
𝑛𝑒𝑡<D
𝑡 − 𝑚 𝑤<D
𝑘FJ" = 1.0
Original LSTM
Input weight conflict
従来のRNNでは、重み更新に⽭盾があった
・以前の⼊⼒情報を記憶する(覚える)
・以前の⼊⼒が無関係な場合保護する
(読まない)
しかし、重み付けのみで表現することは
難しい…
⼊⼒したくないデータを⼊⼒ゲートで除去
⼊⼒ゲートで必要な誤差信号のみが伝搬
するように閉じたり開いたりする
記憶データとWinの内積で⼊⼒可否を判断
output weight conflict
Input weight conflictと同様に
・以前の⼊⼒情報を記憶する(覚える)
・以前の⼊⼒が無関係な場合保護する(書かない)
従来の重み付けのみの表現では⽭盾が⽣じる…
出⼒したくないデータを出⼒ゲートで除去
⼊⼒ゲートと同様に出⼒ゲートで必要な出⼒かどうか判断
記憶データとWoutの内積で出⼒可否を判断
9
第1世代LSTM(1995〜)
入力ゲート
出力ゲート
実際の入力値
LSTMには近年のLSTMに到るまでに様々な改良がされてきた
近年のLSTMまでに4つの代表的な世代がある
1) Original (95,97年)[Hochreiter & Schmidhuber, 95;97]
2) Forget Gateの導⼊ (99年)[Gers & Schmidhuber, 99]
3) Peephole Connectionの導⼊ (00年)[Gers & Schmidhuber, 00]
4) Full Gradientの導⼊ (05年)[Graves & Schmidhuber, 05]
10
LSTM(1990s〜)
11
第2世代LSTM(1999〜)
Forget Gate
Original LSTMで⻑期記憶可能となったことで、
遠くまで誤差を伝達できるようになった
強み 弱点
メモリセルの状態が飽和する
古くなった記憶情報をリセットしたい!
Forget Gateの導⼊
・
・
・ ⼊⼒層の出⼒xt
1ステップ前のユニットの出⼒yt-1
LSTMには近年のLSTMに到るまでに様々な改良がされてきた
近年のLSTMまでに4つの代表的な世代がある
1) Original (95,97年)[Hochreiter & Schmidhuber, 95;97]
2) Forget Gateの導⼊ (99年)[Gers & Schmidhuber, 99]
3) Peephole Connectionの導⼊ (00年)[Gers & Schmidhuber, 00]
4) Full Gradientの導⼊ (05年)[Graves & Schmidhuber, 05]
12
LSTM(1990s〜)
Peephole Connection
・⼊⼒ゲート
・出⼒ゲート
・忘却ゲート
の3つからなるゲートによって
LSTMは完成されたかと思われたが、
⼤きな問題がひとつあった
各ゲートは⼊⼒層とすべての出⼒の情報
を受け取るがCECからの情報はなかった
例えば、出⼒ゲートが閉じていた場合、CECの
情報はゼロとして扱われ、制御に利⽤できない!
Peephole Connectionの導⼊
13
第3世代LSTM(00〜)
14
補⾜
15
補⾜

Weitere ähnliche Inhalte

Was ist angesagt?

[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係についてDeep Learning JP
 
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)Deep Learning JP
 
【メタサーベイ】Video Transformer
 【メタサーベイ】Video Transformer 【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformercvpaper. challenge
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...Deep Learning JP
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会正志 坪坂
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 
Transformer メタサーベイ
Transformer メタサーベイTransformer メタサーベイ
Transformer メタサーベイcvpaper. challenge
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? Deep Learning JP
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選Yusuke Uchida
 
[DL輪読会]Recent Advances in Autoencoder-Based Representation Learning
[DL輪読会]Recent Advances in Autoencoder-Based Representation Learning[DL輪読会]Recent Advances in Autoencoder-Based Representation Learning
[DL輪読会]Recent Advances in Autoencoder-Based Representation LearningDeep Learning JP
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法Deep Learning JP
 
三次元点群を取り扱うニューラルネットワークのサーベイ
三次元点群を取り扱うニューラルネットワークのサーベイ三次元点群を取り扱うニューラルネットワークのサーベイ
三次元点群を取り扱うニューラルネットワークのサーベイNaoya Chiba
 
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめたKatsuya Ito
 
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.Deep Learning JP
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)Deep Learning JP
 
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習Masahiro Suzuki
 
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...Deep Learning JP
 

Was ist angesagt? (20)

[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
 
【メタサーベイ】Video Transformer
 【メタサーベイ】Video Transformer 【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformer
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
Transformer メタサーベイ
Transformer メタサーベイTransformer メタサーベイ
Transformer メタサーベイ
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
 
[DL輪読会]Recent Advances in Autoencoder-Based Representation Learning
[DL輪読会]Recent Advances in Autoencoder-Based Representation Learning[DL輪読会]Recent Advances in Autoencoder-Based Representation Learning
[DL輪読会]Recent Advances in Autoencoder-Based Representation Learning
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
 
三次元点群を取り扱うニューラルネットワークのサーベイ
三次元点群を取り扱うニューラルネットワークのサーベイ三次元点群を取り扱うニューラルネットワークのサーベイ
三次元点群を取り扱うニューラルネットワークのサーベイ
 
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
 
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
 
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習
 
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
 

Mehr von Tomoyuki Hioki

Analysis of cancer by structural equation
Analysis of cancer by structural equationAnalysis of cancer by structural equation
Analysis of cancer by structural equationTomoyuki Hioki
 
Analysis of cancer and health in each prefecture
 Analysis of cancer and health in each prefecture Analysis of cancer and health in each prefecture
Analysis of cancer and health in each prefectureTomoyuki Hioki
 
Marketing Strategy by American Express
Marketing Strategy by American ExpressMarketing Strategy by American Express
Marketing Strategy by American ExpressTomoyuki Hioki
 
製品改良と満足度との関係:多属性モデルに基づくシミュレーション
製品改良と満足度との関係:多属性モデルに基づくシミュレーション製品改良と満足度との関係:多属性モデルに基づくシミュレーション
製品改良と満足度との関係:多属性モデルに基づくシミュレーションTomoyuki Hioki
 
Power energy system optimization research by reinforcement learning extended ...
Power energy system optimization research by reinforcement learning extended ...Power energy system optimization research by reinforcement learning extended ...
Power energy system optimization research by reinforcement learning extended ...Tomoyuki Hioki
 
Power energy system optimization research by reinforcement learning extended ...
Power energy system optimization research by reinforcement learning extended ...Power energy system optimization research by reinforcement learning extended ...
Power energy system optimization research by reinforcement learning extended ...Tomoyuki Hioki
 
【論文紹介】Understanding Back-Translation at Scale
【論文紹介】Understanding Back-Translation at Scale【論文紹介】Understanding Back-Translation at Scale
【論文紹介】Understanding Back-Translation at ScaleTomoyuki Hioki
 
Smart Grid Optimization by Deep Reinforcement Learning over Discrete and Cont...
Smart Grid Optimization by Deep Reinforcement Learning over Discrete and Cont...Smart Grid Optimization by Deep Reinforcement Learning over Discrete and Cont...
Smart Grid Optimization by Deep Reinforcement Learning over Discrete and Cont...Tomoyuki Hioki
 
【論文紹介】Deep Mimic: Example-Guided Deep Reinforcement Learning of Physics-Based...
【論文紹介】Deep Mimic: Example-Guided Deep Reinforcement Learning of Physics-Based...【論文紹介】Deep Mimic: Example-Guided Deep Reinforcement Learning of Physics-Based...
【論文紹介】Deep Mimic: Example-Guided Deep Reinforcement Learning of Physics-Based...Tomoyuki Hioki
 
【論文紹介】Seq2Seq (NIPS 2014)
【論文紹介】Seq2Seq (NIPS 2014)【論文紹介】Seq2Seq (NIPS 2014)
【論文紹介】Seq2Seq (NIPS 2014)Tomoyuki Hioki
 
【論文紹介】Deep Reinforcement Learning for Solving the Vehicle Routing Problem

【論文紹介】Deep Reinforcement Learning for Solving the Vehicle Routing Problem
【論文紹介】Deep Reinforcement Learning for Solving the Vehicle Routing Problem

【論文紹介】Deep Reinforcement Learning for Solving the Vehicle Routing Problem
Tomoyuki Hioki
 

Mehr von Tomoyuki Hioki (18)

Analysis of cancer by structural equation
Analysis of cancer by structural equationAnalysis of cancer by structural equation
Analysis of cancer by structural equation
 
Analysis of cancer and health in each prefecture
 Analysis of cancer and health in each prefecture Analysis of cancer and health in each prefecture
Analysis of cancer and health in each prefecture
 
Marketing Strategy by American Express
Marketing Strategy by American ExpressMarketing Strategy by American Express
Marketing Strategy by American Express
 
製品改良と満足度との関係:多属性モデルに基づくシミュレーション
製品改良と満足度との関係:多属性モデルに基づくシミュレーション製品改良と満足度との関係:多属性モデルに基づくシミュレーション
製品改良と満足度との関係:多属性モデルに基づくシミュレーション
 
Power energy system optimization research by reinforcement learning extended ...
Power energy system optimization research by reinforcement learning extended ...Power energy system optimization research by reinforcement learning extended ...
Power energy system optimization research by reinforcement learning extended ...
 
Power energy system optimization research by reinforcement learning extended ...
Power energy system optimization research by reinforcement learning extended ...Power energy system optimization research by reinforcement learning extended ...
Power energy system optimization research by reinforcement learning extended ...
 
【論文紹介】Understanding Back-Translation at Scale
【論文紹介】Understanding Back-Translation at Scale【論文紹介】Understanding Back-Translation at Scale
【論文紹介】Understanding Back-Translation at Scale
 
Smart Grid Optimization by Deep Reinforcement Learning over Discrete and Cont...
Smart Grid Optimization by Deep Reinforcement Learning over Discrete and Cont...Smart Grid Optimization by Deep Reinforcement Learning over Discrete and Cont...
Smart Grid Optimization by Deep Reinforcement Learning over Discrete and Cont...
 
【論文紹介】Deep Mimic: Example-Guided Deep Reinforcement Learning of Physics-Based...
【論文紹介】Deep Mimic: Example-Guided Deep Reinforcement Learning of Physics-Based...【論文紹介】Deep Mimic: Example-Guided Deep Reinforcement Learning of Physics-Based...
【論文紹介】Deep Mimic: Example-Guided Deep Reinforcement Learning of Physics-Based...
 
【論文紹介】Seq2Seq (NIPS 2014)
【論文紹介】Seq2Seq (NIPS 2014)【論文紹介】Seq2Seq (NIPS 2014)
【論文紹介】Seq2Seq (NIPS 2014)
 
【論文紹介】Deep Reinforcement Learning for Solving the Vehicle Routing Problem

【論文紹介】Deep Reinforcement Learning for Solving the Vehicle Routing Problem
【論文紹介】Deep Reinforcement Learning for Solving the Vehicle Routing Problem

【論文紹介】Deep Reinforcement Learning for Solving the Vehicle Routing Problem

 
Prml1.2.5~1.2.6
Prml1.2.5~1.2.6Prml1.2.5~1.2.6
Prml1.2.5~1.2.6
 
Prml1.2.4
Prml1.2.4Prml1.2.4
Prml1.2.4
 
Prml1.2.3
Prml1.2.3Prml1.2.3
Prml1.2.3
 
Prml1.2.1~1.2.2
Prml1.2.1~1.2.2Prml1.2.1~1.2.2
Prml1.2.1~1.2.2
 
PRML1.1
PRML1.1PRML1.1
PRML1.1
 
PRML1.2
PRML1.2PRML1.2
PRML1.2
 
PRML1.1
PRML1.1PRML1.1
PRML1.1
 

[論文紹介] LSTM (LONG SHORT-TERM MEMORY)