SlideShare ist ein Scribd-Unternehmen logo
1 von 30
システム制御と機械学習
@syuntoku14
自己紹介
● 名前:北村俊徳
● SD 3年
● ロボット技術研究会
● KCS AI班
● 制御工学、確率ロボティクス
⚠勉強中であり、スライドは間違いを含むかもしれない
このスライドで伝えること
● 事前知識(制御って何?)
● 学習制御というジャンル
● ディープな学習制御について(論文紹介)
このスライドで伝えること
● 事前知識(制御って何?)
● 学習制御というジャンル
● ディープな学習制御について(論文紹介)
事前知識
制御って何?
システム制御でやりたいこと
入力値を操作して出力を目標値に近づける
[例えば] 台車の目標座標への移動
x
モータへ信号u(t)を入力
r(t)
x(t)
偏差e(t)
入力:モータへの入力電圧u(t)
出力:台車位置x(t)
手法のひとつ:古典制御
● 入力に対する出力のみに着目
● 完璧では無いが、いい感じの出力が得られる
● 設計が簡単
②制御器を設計する
①偏差をゼロにした
い
伝達関数
古典制御方法のひとつ PID制御
● 偏差のP(比例)I(積分)D(微分)を入力に追加し、出力の定常偏差を減ら
し、振動現象を抑える
https://ja.wikipedia.org/wiki/PID%E5%88%B6%E5%BE%A1
制御手法(PID制御)
偏差の比例(P)、微分(D)、積分(I)に
基づいて入力値を変える制御手法
● P制御:大きくすると振動が起こる
● I制御:定常偏差を小さくする
● D制御:振動現象を抑える
古典制御の問題点
線形時不変系にしか使えない...
世の中非線形なことばっかり 伝達関数->周波数応答解析
ができない!!
現代制御へ…
● 入出力だけでなく、状態空間を扱う
● 多入出力を扱える
● 時変システム、非線形システムも扱える
現代制御の問題点
非線形システムも扱えるが…
● 非線形システムを一般的に扱う理論の展開が非常に難しい
→有用な制御理論が少ない&ほぼ体系化されていない(らしい)
このスライドで伝えること
● 事前知識(制御って何?)
● 学習制御というジャンル
● ディープな学習制御について(論文紹介)
学習制御って?
完璧なモデル化→現代制御でなんとか...
モデル化出来なくても→対象がある程度単純ならPID制御でなんとか...
モデル化出来ない上に複雑、かつ精度もほしい時はどうすれ
ば?
学習制御って?
モデル化出来ない上に複雑な場合はどうすれば?
→学習(繰り返し)を通じて制御しよう
● モデルがわからない&非線形にも対応可能
k回目 ∞回目
繰り返し学習制御の基本:D型学習制御
学習可能なシステム:
● 制御対象が変化しない
● 入出力が正確に計測可能
繰り返しで精度が上がってい
く
D型学習制御の基本構造 目標値
目標値と出力値
の差分
偏差を処理(今回は微分)
次回の
入力値
次回の入力を処理し
た偏差で更新
問題点
● 実空間上で学習する場合
→反復回数を少なく&試行回数を短くする必要
● 微分するので、観測雑音に弱い
● 繰り返すと制御対象は変わってしまう
このスライドで伝えること
● 事前知識(制御って何?)
● 学習制御というジャンル
● ディープな制御について(論文紹介)
ディープな制御について
● どこに深層学習を適用するか?
①制御対象を学習する
②コントローラをNeuralNetworkで置き換える
制御対象
入力
NN
出力
+
-
Modeling of nonlinear system based on deep learning
framework(2016)
● 非線形なシステムをDeepLearningでモデル化した
● ENN(Elman Neural Network)で非線形なシステムの
memory effectも学習している
● RBM(Restricted Boltzman Machine)で初期値を事前学習
→局所解を避け、学習を高速化
● ENNとRBMを組み合わせたDRM(Deep Reconstruction
Model)で学習を行う
D級アンプモデルの学習結果
DRMによる学習結果
周波数に対する振幅特性(上)誤差(下)
RBMとENNとDRMの
周波数誤差の比較
DRMによって精度が
上がっている
ディープな制御について
● どこに深層学習を適用するか?
①制御対象を学習する
②コントローラをNeuralNetworkで置き換える
NN
置き換え
PID制御器のNNでの置き換え
● On replacing PID controller with ANN controller for DC motor position
control (2013)
● On Replacing PID Controller with Deep Learning Controller for DC Motor
System(2015)(Deepにしたやつ)
PID制御器の部分をニューラルネットで置き換え
On replacing PID controller with ANN controller for DC motor position
control (2013)
● PIDコントローラをNNで置き換えることが出来た
● 教師あり学習で、未知のシステムに対してもPIDよりも良く対応できる(ら
しい)
目標値
これを0に
したい
制御対象
DCモータモデルについての学習結果
・許容できる遅れ、偏差
・未知のシステムに対して
PIDよりも良い結果をしめす
目標値
出力
On Replacing PID Controller with Deep Learning Controller for DC Motor
System(2015)
PIDコントローラの出力を教師データとして学習
→DeepLearningControllerのみで制御(テスト時)
学習時
テスト時
DCモータモデルについての学習結果
カスケードステップ入力に対する応答
→PIDを学習できている→DeepLearningをコントローラとして使用できる可能性
PID制御の出力 DeepLearningControllerの出力
まとめ
● 学習によるモデルフリーな制御
● コントローラとしてのDeepLearningの可能性
● 非線形モデルをDeepLearningで学習
参考
● On replacing PID controller with ANN controller for DC motor position control
(http://consortiacademia.org/wp-content/uploads/IJRSC/IJRSC_v2i1/236-
1374-1-PB.pdf)
● On Replacing PID Controller with Deep Learning Controller for DC Motor
System
(http://www.joace.org/uploadfile/2015/0408/20150408032023512.pdf)
● Modeling of nonlinear system based on deep learning
framework(http://link.springer.com/10.1007/s11071-015-2571-6)

Weitere ähnliche Inhalte

Was ist angesagt?

変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
勾配降下法の 最適化アルゴリズム
勾配降下法の最適化アルゴリズム勾配降下法の最適化アルゴリズム
勾配降下法の 最適化アルゴリズムnishio
 
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Preferred Networks
 
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展Deep Learning JP
 
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜Jun Okumura
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?Fumihiko Takahashi
 
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Yamato OKAMOTO
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習Eiji Uchibe
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential EquationsDeep Learning JP
 
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured PredictionDeep Learning JP
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
Transformer メタサーベイ
Transformer メタサーベイTransformer メタサーベイ
Transformer メタサーベイcvpaper. challenge
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカットTsubasa Hirakawa
 
(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMMMorpho, Inc.
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANsDeep Learning JP
 

Was ist angesagt? (20)

変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
勾配降下法の 最適化アルゴリズム
勾配降下法の最適化アルゴリズム勾配降下法の最適化アルゴリズム
勾配降下法の 最適化アルゴリズム
 
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
 
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展
 
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
 
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
 
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
Transformer メタサーベイ
Transformer メタサーベイTransformer メタサーベイ
Transformer メタサーベイ
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカット
 
(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs
 

Ähnlich wie システム制御とディープラーニング

ソフトウェア自動チューニング研究紹介
ソフトウェア自動チューニング研究紹介ソフトウェア自動チューニング研究紹介
ソフトウェア自動チューニング研究紹介Takahiro Katagiri
 
続・わかりやすいパターン認識 第7章「マルコフモデル」
続・わかりやすいパターン認識 第7章「マルコフモデル」続・わかりやすいパターン認識 第7章「マルコフモデル」
続・わかりやすいパターン認識 第7章「マルコフモデル」T T
 
機械学習エンジニアリング・品質保証 (ESS2018招待講演 鷲崎弘宜)
機械学習エンジニアリング・品質保証 (ESS2018招待講演 鷲崎弘宜)機械学習エンジニアリング・品質保証 (ESS2018招待講演 鷲崎弘宜)
機械学習エンジニアリング・品質保証 (ESS2018招待講演 鷲崎弘宜)Hironori Washizaki
 
エンタープライズシステムにおけるテスト ~STE研究交流会 参加者の視点から ~
エンタープライズシステムにおけるテスト ~STE研究交流会 参加者の視点から ~エンタープライズシステムにおけるテスト ~STE研究交流会 参加者の視点から ~
エンタープライズシステムにおけるテスト ~STE研究交流会 参加者の視点から ~Kazuhiro Suzuki
 
2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演
2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演
2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演Ryuichi Ueda
 
ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介ADVENTURE Project
 

Ähnlich wie システム制御とディープラーニング (6)

ソフトウェア自動チューニング研究紹介
ソフトウェア自動チューニング研究紹介ソフトウェア自動チューニング研究紹介
ソフトウェア自動チューニング研究紹介
 
続・わかりやすいパターン認識 第7章「マルコフモデル」
続・わかりやすいパターン認識 第7章「マルコフモデル」続・わかりやすいパターン認識 第7章「マルコフモデル」
続・わかりやすいパターン認識 第7章「マルコフモデル」
 
機械学習エンジニアリング・品質保証 (ESS2018招待講演 鷲崎弘宜)
機械学習エンジニアリング・品質保証 (ESS2018招待講演 鷲崎弘宜)機械学習エンジニアリング・品質保証 (ESS2018招待講演 鷲崎弘宜)
機械学習エンジニアリング・品質保証 (ESS2018招待講演 鷲崎弘宜)
 
エンタープライズシステムにおけるテスト ~STE研究交流会 参加者の視点から ~
エンタープライズシステムにおけるテスト ~STE研究交流会 参加者の視点から ~エンタープライズシステムにおけるテスト ~STE研究交流会 参加者の視点から ~
エンタープライズシステムにおけるテスト ~STE研究交流会 参加者の視点から ~
 
2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演
2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演
2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演
 
ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介
 

Mehr von Keio Robotics Association

Mehr von Keio Robotics Association (9)

定例会スライド_キャチs 公開用.pdf
定例会スライド_キャチs 公開用.pdf定例会スライド_キャチs 公開用.pdf
定例会スライド_キャチs 公開用.pdf
 
表面実装講習会資料
表面実装講習会資料表面実装講習会資料
表面実装講習会資料
 
Useful Documents for Studying Robotics
Useful Documents for Studying RoboticsUseful Documents for Studying Robotics
Useful Documents for Studying Robotics
 
確率ロボティクスの復習とF^3RCでの使い方
確率ロボティクスの復習とF^3RCでの使い方確率ロボティクスの復習とF^3RCでの使い方
確率ロボティクスの復習とF^3RCでの使い方
 
Probabilistic roboticschapter4
Probabilistic roboticschapter4Probabilistic roboticschapter4
Probabilistic roboticschapter4
 
確率ロボティクス輪読会 3章
確率ロボティクス輪読会 3章確率ロボティクス輪読会 3章
確率ロボティクス輪読会 3章
 
Depth Estimation論文紹介
Depth Estimation論文紹介Depth Estimation論文紹介
Depth Estimation論文紹介
 
NHKロボコンでの画像処理
NHKロボコンでの画像処理NHKロボコンでの画像処理
NHKロボコンでの画像処理
 
Graphical model and kf
Graphical model and kfGraphical model and kf
Graphical model and kf
 

システム制御とディープラーニング

Hinweis der Redaktion

  1. 伝えたいこと: ・学習制御というジャンルが存在する ・ディープラーニングを使った手法がある ・メリットとデメリット の三点が伝わればそれでよい
  2. 多分CSの先行が多いと思うので、最初に制御工学について説明しようと思います
  3. 台車の位置xと目標rが与えられた時に、台車のモータへの入力を操作して、偏差eを小さくしたい
  4. 入力から出力に至るまでの関数を設計する手法(制御対象はブラックボックスで良い) 至るまでの過程を関数として考え、制御器(コントローラ)によって関数を制御し、欲しい出力を得る。 入力の周波数応答が簡単にわかる
  5. あとで出てくるので言及しました 話しが長くなってしまうので簡潔にいう(PとIとDについて述べる) 偏差を定数倍したもの、時間積分したもの、微分したものを加える
  6. 線形時不変系、例えばモータの電圧を二倍にするとトルクが二倍になったり(厳密には違うが)
  7. 入力に対する出力のみを見るのが古典制御 現代制御は入出力だけでなく状態空間も扱う→これによって、非線形系を陽に扱うことができる 例えば、台車のモータの熱や速度など、制御対象の状態を明示的に記述する手法
  8. 一般に、非線形を扱う場合は、システムの予測や線形化、単純化を行う場合が多く、それは精度出ないよね
  9. 伝えたいこと: ・学習制御というジャンルが存在する ・ディープラーニングを使った手法がある ・メリットとデメリット の三点が伝わればそれでよい
  10. 例えばロボットなど、複雑かつモデル化も難しい場合がこれに該当する
  11. 人間は対象がわかってなくても、何回か繰り返せばだいたい制御できる 職人は訓練を積んですさまじい精度を出す(大体おんなじこと)
  12. 最も基本的なやつ 制御対象が変化しない(モータなどが無限時間稼働しても変化しない)
  13. 普通のPID制御と何が違うか? 制御を最初から最後まで繰り返す(今まで紹介したやつでは、何回繰り返そうが同じ) 今までのやつは、t+1を更新していたのに対し、学習制御ではk+1を更新する これ、よく見たらフィードバックしていないことに気づくと思う。フィードバックしているように見えて、実は更新しているのは次回の入力である。 これはD型学習というもの なぜ微分?→出力を微分すると入力の次数と一致する場合は、微分する (例えばロボットの場合、出力を一回微分すると間接の角速度、もう一回微分するとトルクが陽に出てくる→入力と同じ) つまり、出力の次数の二回微分が入力と一致する場合は、二回微分にするべき なぜ?→そうすると、試行が繰り返すことで望みの出力が達成される(定数行列Γが適切なとき)
  14. シミュレーション上でpretrainingする手法は存在しそう 微分する部分、つまりこれはフィードバック部分が入力値を考慮しておらず、ただ偏差の微分を加えるだけ→ノイズによる大きな微分値が加えられてしまう可能性
  15. 伝えたいこと: ・学習制御というジャンルが存在する ・ディープラーニングを使った手法がある ・メリットとデメリット の三点が伝わればそれでよい
  16. まず紹介するのは、
  17. memory effect: 例えばししおどしみたいな、出力が過去の入力に依存するもの 今までのアプローチでは、初期値を適切に決めないと局所解に陥る RBM→AutoEncoderの前身?入力値から潜在変数をひねり出す ENN→部分的にRNNが使われてる?
  18. 周波数応答をどれくらい学習できているか? 実は、元論文を見るとRBMもENNも十分学習できている気がするんだよね あと、RBMで学習できるのがよくわからなかった。
  19. さっき説明した、繰り返し学習機の学習記部分をDeepLearningで置き換えてしまおうっていう話 モデルがわかってなくてもいいし、制御も勝手に学習してくれるので汎用性が高い
  20. この論文読んだけど、モデルの説明が浅かったり、隠れ層が二層だったり、あんまり参考にはならないかも PIDをDeepLearningで置き換えてもなんかうまく行くよって話
  21. らしいっていうのが、なんとここでデータが載っていなかったので 論文で実際に扱っているのが単純なモデルに対してのやつのみだった... メチャメチャ簡単に実装できそう ここでわかんなかったのが、NN Plant Modelの存在意義
  22. ちゃんとPID制御器を学習できているという点で、DeepLearningが制御器として可能性があるっていうことが分かった。
  23. さっきとの違いは、さっきはreferenceを学習していたのに対し、今回はPIDコントローラを学習している テスト時の形で学習を行っていないのは何故か? →そもそも目的が完全なPID制御器の模倣だったから? 新しく制御器を作ることが目的ではなかった? これなんですが、DeepLearning部分にDeepBeriefNetworkっていうのを使っている →pre-trainingとfine-tuningの二つに分けられるもの? pre-trainingは制限付きボルツマンマシンで行う(なにこれ?)
  24. これね、それはそうっていう感じするんですが。。。 先行研究として二層のものがPID以外も学習できているので、DeepLearningでうまく行かないわけ無いと思ったんですが、どうですか?
  25. 対象がわからなくても、学習することで制御を実現できる DeepLearningをコントローラ、モデルに適用した事例がある