SlideShare ist ein Scribd-Unternehmen logo
1 von 26
Deep Predictive Coding Networks
(PredNet)を使ってみた
【第2回】全脳アーキテクチャ研究会オフ会
目次
• 自己紹介
• PredNetについて
• 今回やってきたこと
• エラーユニットの可視化
• 汎化性能
自己紹介
• 名前:落合幸治
• 大学時代:
• 動画・画像処理の研究
• 職業:
• 制御エンジニア
• 浄水プラントの制御ソフト開発、データ解析
• 技術分野
• MATLAB、Python
• 時系列解析、現代制御、画像処理
これまでの経緯
PredNetハッカソン(1日目)
PredNetハッカソン(2日目)
第1回オフ会
第2回オフ会
論文のarXiv投稿2016/5/25(水)
2016/6/12(日)
2016/6/19(日)
2016/6/21(火)
2016/6/29(水)
これまでの経緯
PredNetハッカソン(1日目)
PredNetハッカソン(2日目)
第1回オフ会
第2回オフ会
論文のarXiv投稿2016/5/25(水)
2016/6/12(日)
2016/6/19(日)
2016/6/21(火)
2016/6/29(水)
Deep Predictive Coding Networks for Video
Prediction and Unsupervised Learning
David Cox(ハーバード大学の計算論的生物学者)
これまでの経緯
PredNetハッカソン(1日目)
PredNetハッカソン(2日目)
第1回オフ会
第2回オフ会
論文のarXiv投稿2016/5/25(水)
2016/6/12(日)
2016/6/19(日)
2016/6/21(火)
2016/6/29(水)
• 川崎さんからの現状報告
• Kerasで1層だけ実装
• ConvLSTMの実装が難しい
• 1週間後に成果を持ち寄ることにしよう
これまでの経緯
PredNetハッカソン(1日目)
PredNetハッカソン(2日目)
第1回オフ会
第2回オフ会
論文のarXiv投稿2016/5/25(水)
2016/6/12(日)
2016/6/19(日)
2016/6/21(火)
2016/6/29(水)
• 桑田さん:PredNetの実装と挙動観察
Cheinerを用いたPredNet実装
https://github.com/quadjr/PredNet
これまでの経緯
PredNetハッカソン(1日目)
PredNetハッカソン(2日目)
第1回オフ会
第2回オフ会
論文のarXiv投稿2016/5/25(水)
2016/6/12(日)
2016/6/19(日)
2016/6/21(火)
2016/6/29(水)
• 教科学習などと組み合わせたい
• LISなど他のグループと合流したい
これまでの経緯
PredNetハッカソン(1日目)
PredNetハッカソン(2日目)
第1回オフ会
第2回オフ会
論文のarXiv投稿2016/5/25(水)
2016/6/12(日)
2016/6/19(日)
2016/6/21(火)
2016/6/29(水)
Now!
疑問・やりたいこと
1. 汎化性能(学習と違うデータを入れた時の予測結果)
2. 隠れ層の可視化
3. 並列計算
4. 異常検知
5. 強化学習
6. LISと連携
ハッカソン、オフ会、Facebookなどで出たアイディア
疑問・やりたいこと
1. 汎化性能(学習と違うデータを入れた時の予測結果)
2. 隠れ層の可視化
3. 並列計算
4. 異常検知
5. 強化学習
6. LISと連携
ハッカソン、オフ会、Facebookなどで出たアイディア
エラーユニットの可視化
エラーユニット
エラーユニットの可視化
• 学習データ
KITTI Vision Benchmark SuiteのCityに分類されたデータすべて(8477フレーム)
• 作成
• Raquel Urtasun
• Toyota Technological
Institute at Chicago
エラーユニットの可視化
• 桑田さんのPredNet実装を使用
• ライブラリ:Chainer
• 最適化アルゴリズム:Adam
• 層数:4
• Loss:予測値と次フレームとの2乗誤差
• バックプロパゲーション:10ステップ
• 学習回数:140000(データセットを16.5周)
• 学習時間:5時間くらい
学習
論文合わせ
エラーユニットの可視化
• 紅莉栖(http://dwango.co.jp/pi/ns/2015/0917/index2.html)
• 使用したGPUは1つのみ
ノード数 CPU GPU ディスク メモリ
100台(予定) Xeon
E5-2623 v3 ×2
(4C/8T, 3GHz)
TITAN X
(Maxwell世代
3,072 CUDAコア &
12GB) × 4
128GB SSD
(OS起動用)
+
480GB SSD ×2
128GB
(2台は1TB)
学習環境
エラーユニットの可視化
学習可視化方法
1. 学習済みのモデルで予測画像のセットを作成
2. 予測画像と次フレームの画像を使い、以下の計算で誤差を計算
エラーユニットの可視化
1フレーム目
2フレーム目
Predict True
Error
Relu(True-Predict) Relu(Predict-True)
エラーユニットの可視化
考察・感想
• エッジ検出画像に似ている
• 何故か?
• 予測画像はぼやけている
→元画像と差分を取ると高周波成分だけが残る
• エッジ以外の部分は入力をそのまま出せば正解と一致する
• よく考えれば当たり前だけど初めて見た時は驚いた
• もかすると、Predictive Codingの考え方だけでエッジに反応する
ニューロンが生まれる理由が説明できるかも?
(今はスパースコーディングで説明されている)
エラーユニットの可視化
327フレーム目
328フレーム目
Predict True
Error
Relu(True-Predict) Relu(Predict-True)
エラーユニットの可視化
考察・感想
• 予測に失敗した場合、フレーム間差分をプラスとマイナスで分けた
ような画像
• 意外性はない
• 今回の場合
• 左が無いと予想していてたが存在したもの
• 右が有ると予想していたが存在しなかったもの
• 白い背景に黒い物体があった場合おそらく左右反転
汎化性能
疑問
• PredNetに訓練と違う動きの動画を見せたらどうなるか?
• 車載カメラの動画で学習、衛星の画像を予測
→無理そう
• 車載カメラの動画で学習、定点カメラに映る歩行者を予測
→微妙なライン(できそうな気はする)
• 前述のモデルを用いKITTIのPersonデータを予測
汎化性能
結果
26 27 28 29 30 31 32
※0フレーム目から順に入力、0~26フレームは背景のみ
• 背景に強すぎる?
• 人の影も入力がそのまま出ているように見える
汎化性能
予測できていない?
• 少ないデータで学習させた時はもう少し予測できる
• 動作確認用に作ったモデル
• 学習データ:KITTI Cityの番号の若いほうから7つ(1477フレーム)
• 学習回数:80000(データセット54周)
• 他の条件は前述のモデルと同じ
汎化性能
結果(少ないデータで学習したモデル)
26 27 28 29 30 31 32
※0フレーム目から順に入力、0~26フレームは背景のみ
• かなり形が崩れているが移動方向に向かってずれている。
汎化性能
考察・感想
• なぜデータ量を増やした時にテストデータを予測できなくなるの
か不明
• 偶然?
→同じデータで再度学習させてみたが再現性がある
• 学習回数?
動作確認用モデル:データセット54周
City全てで学習したモデル:データセット16周
→56周まで学習させたが結果は改善されない
• データ量が増えて、学習量も増やした場合は上位互換になって
ほしいがそうはなっていない
まとめ
• エラーユニットの可視化
• エッジ検出画像に近い
• 予測に失敗した場合フレーム間差分に近い画像
• 汎化性能
• 初めて見るような画像でもある程度予測できる
• なぜデータ量を増やしたモデルで予測できなくなるのか不明

Weitere ähnliche Inhalte

Was ist angesagt?

条件付き確率場の推論と学習
条件付き確率場の推論と学習条件付き確率場の推論と学習
条件付き確率場の推論と学習
Masaki Saito
 

Was ist angesagt? (20)

【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 
MIRU2016 チュートリアル
MIRU2016 チュートリアルMIRU2016 チュートリアル
MIRU2016 チュートリアル
 
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
 
LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
 
条件付き確率場の推論と学習
条件付き確率場の推論と学習条件付き確率場の推論と学習
条件付き確率場の推論と学習
 
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
 
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
 
[DL輪読会]AutoAugment: LearningAugmentation Strategies from Data & Learning Data...
[DL輪読会]AutoAugment: LearningAugmentation Strategies from Data & Learning Data...[DL輪読会]AutoAugment: LearningAugmentation Strategies from Data & Learning Data...
[DL輪読会]AutoAugment: LearningAugmentation Strategies from Data & Learning Data...
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
 
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
 
ResNetの仕組み
ResNetの仕組みResNetの仕組み
ResNetの仕組み
 
Learning to forget continual prediction with lstm
Learning to forget continual prediction with lstmLearning to forget continual prediction with lstm
Learning to forget continual prediction with lstm
 
【DL輪読会】Transporters with Visual Foresight for Solving Unseen Rearrangement Tasks
【DL輪読会】Transporters with Visual Foresight for Solving Unseen Rearrangement Tasks【DL輪読会】Transporters with Visual Foresight for Solving Unseen Rearrangement Tasks
【DL輪読会】Transporters with Visual Foresight for Solving Unseen Rearrangement Tasks
 
[DL輪読会]BANMo: Building Animatable 3D Neural Models from Many Casual Videos
[DL輪読会]BANMo: Building Animatable 3D Neural Models from Many Casual Videos[DL輪読会]BANMo: Building Animatable 3D Neural Models from Many Casual Videos
[DL輪読会]BANMo: Building Animatable 3D Neural Models from Many Casual Videos
 

Andere mochten auch

2010 deep learning and unsupervised feature learning
2010 deep learning and unsupervised feature learning2010 deep learning and unsupervised feature learning
2010 deep learning and unsupervised feature learning
Van Thanh
 

Andere mochten auch (8)

GRU-Prednetを実装してみた(途中経過)
GRU-Prednetを実装してみた(途中経過)GRU-Prednetを実装してみた(途中経過)
GRU-Prednetを実装してみた(途中経過)
 
Deep Learning with FOSS4G
Deep Learning with FOSS4GDeep Learning with FOSS4G
Deep Learning with FOSS4G
 
Predictive coding : inhibition in the retina
Predictive coding : inhibition in the retina Predictive coding : inhibition in the retina
Predictive coding : inhibition in the retina
 
Article overview: Unsupervised Learning of Visual Structure Using Predictive ...
Article overview: Unsupervised Learning of Visual Structure Using Predictive ...Article overview: Unsupervised Learning of Visual Structure Using Predictive ...
Article overview: Unsupervised Learning of Visual Structure Using Predictive ...
 
Pred netにおけるl1lossとl2lossの比較
Pred netにおけるl1lossとl2lossの比較Pred netにおけるl1lossとl2lossの比較
Pred netにおけるl1lossとl2lossの比較
 
WhosOn live Chat - Analytics, Interface Design & CRM Intergration
WhosOn live Chat - Analytics, Interface Design & CRM IntergrationWhosOn live Chat - Analytics, Interface Design & CRM Intergration
WhosOn live Chat - Analytics, Interface Design & CRM Intergration
 
2010 deep learning and unsupervised feature learning
2010 deep learning and unsupervised feature learning2010 deep learning and unsupervised feature learning
2010 deep learning and unsupervised feature learning
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 

Ähnlich wie Pred net使ってみた

関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
Akisato Kimura
 
財布にやさしいRを使ったデータマイニング
財布にやさしいRを使ったデータマイニング財布にやさしいRを使ったデータマイニング
財布にやさしいRを使ったデータマイニング
Ryoji Yanashima
 
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
de:code 2017
 
NNKproject Japanese version
NNKproject Japanese versionNNKproject Japanese version
NNKproject Japanese version
nao takatoshi
 
NNKproject Japanese version2
NNKproject Japanese version2NNKproject Japanese version2
NNKproject Japanese version2
nao takatoshi
 
ビッグデータ活用支援フォーラム
ビッグデータ活用支援フォーラムビッグデータ活用支援フォーラム
ビッグデータ活用支援フォーラム
Recruit Technologies
 
WebDB Forum 2012 基調講演資料
WebDB Forum 2012 基調講演資料WebDB Forum 2012 基調講演資料
WebDB Forum 2012 基調講演資料
Recruit Technologies
 

Ähnlich wie Pred net使ってみた (20)

PreadNet
PreadNetPreadNet
PreadNet
 
Cytoscapeの現状とCyberinfrastructure
Cytoscapeの現状とCyberinfrastructureCytoscapeの現状とCyberinfrastructure
Cytoscapeの現状とCyberinfrastructure
 
20170419PFNオープンハウス リサーチャーの仕事_公開用
20170419PFNオープンハウス リサーチャーの仕事_公開用20170419PFNオープンハウス リサーチャーの仕事_公開用
20170419PFNオープンハウス リサーチャーの仕事_公開用
 
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
 
財布にやさしいRを使ったデータマイニング
財布にやさしいRを使ったデータマイニング財布にやさしいRを使ったデータマイニング
財布にやさしいRを使ったデータマイニング
 
ナレッジグラフ推論チャレンジ2018ミートアップ@東京(2018/12/26)
ナレッジグラフ推論チャレンジ2018ミートアップ@東京(2018/12/26)ナレッジグラフ推論チャレンジ2018ミートアップ@東京(2018/12/26)
ナレッジグラフ推論チャレンジ2018ミートアップ@東京(2018/12/26)
 
Deep Residual Learning (ILSVRC2015 winner)
Deep Residual Learning (ILSVRC2015 winner)Deep Residual Learning (ILSVRC2015 winner)
Deep Residual Learning (ILSVRC2015 winner)
 
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
 
NNKproject Japanese version
NNKproject Japanese versionNNKproject Japanese version
NNKproject Japanese version
 
NNKproject Japanese version2
NNKproject Japanese version2NNKproject Japanese version2
NNKproject Japanese version2
 
ICSE2014参加報告 (SE勉強会 6/12)
ICSE2014参加報告 (SE勉強会 6/12)ICSE2014参加報告 (SE勉強会 6/12)
ICSE2014参加報告 (SE勉強会 6/12)
 
ビッグデータ活用支援フォーラム
ビッグデータ活用支援フォーラムビッグデータ活用支援フォーラム
ビッグデータ活用支援フォーラム
 
私とOSSの25年
私とOSSの25年私とOSSの25年
私とOSSの25年
 
アドテク×Scala×パフォーマンスチューニング
アドテク×Scala×パフォーマンスチューニングアドテク×Scala×パフォーマンスチューニング
アドテク×Scala×パフォーマンスチューニング
 
2016年2月4日 空間OSのためのビッグデータ技術基盤
2016年2月4日 空間OSのためのビッグデータ技術基盤2016年2月4日 空間OSのためのビッグデータ技術基盤
2016年2月4日 空間OSのためのビッグデータ技術基盤
 
Tech pub LT_4 20170509
Tech pub LT_4 20170509Tech pub LT_4 20170509
Tech pub LT_4 20170509
 
WebDB Forum 2012 基調講演資料
WebDB Forum 2012 基調講演資料WebDB Forum 2012 基調講演資料
WebDB Forum 2012 基調講演資料
 
San Diego Japan Bio Forum: ライフサイエンス向けデータ可視化技術の現状
San Diego Japan Bio Forum: ライフサイエンス向けデータ可視化技術の現状San Diego Japan Bio Forum: ライフサイエンス向けデータ可視化技術の現状
San Diego Japan Bio Forum: ライフサイエンス向けデータ可視化技術の現状
 
BotとWikiを使った試験的な並列プログラミング
BotとWikiを使った試験的な並列プログラミングBotとWikiを使った試験的な並列プログラミング
BotとWikiを使った試験的な並列プログラミング
 
学生からみた松江高専生とOpenStackで遊んだお話
学生からみた松江高専生とOpenStackで遊んだお話学生からみた松江高専生とOpenStackで遊んだお話
学生からみた松江高専生とOpenStackで遊んだお話
 

Pred net使ってみた