Suche senden
Hochladen
「深層学習」勉強会LT資料 "Chainer使ってみた"
•
61 gefällt mir
•
14,065 views
Ken'ichi Matsui
Folgen
機械学習プロフェッショナルシリーズの「深層学習」勉強会のLTスライドです。
Weniger lesen
Mehr lesen
Daten & Analysen
Melden
Teilen
Melden
Teilen
1 von 38
Jetzt herunterladen
Downloaden Sie, um offline zu lesen
Empfohlen
Jupyter NotebookとChainerで楽々Deep Learning
Jupyter NotebookとChainerで楽々Deep Learning
Jun-ya Norimatsu
Pythonによる機械学習入門〜基礎からDeep Learningまで〜
Pythonによる機械学習入門〜基礎からDeep Learningまで〜
Yasutomo Kawanishi
Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~
Yasutomo Kawanishi
科学技術計算関連Pythonパッケージの概要
科学技術計算関連Pythonパッケージの概要
Toshihiro Kamishima
画像認識で物を見分ける
画像認識で物を見分ける
Kazuaki Tanida
2013.07.15 はじパタlt scikit-learnで始める機械学習
2013.07.15 はじパタlt scikit-learnで始める機械学習
Motoya Wakiyama
深層学習フレームワークChainerの紹介とFPGAへの期待
深層学習フレームワークChainerの紹介とFPGAへの期待
Seiya Tokui
分類問題 - 機械学習ライブラリ scikit-learn の活用
分類問題 - 機械学習ライブラリ scikit-learn の活用
y-uti
Empfohlen
Jupyter NotebookとChainerで楽々Deep Learning
Jupyter NotebookとChainerで楽々Deep Learning
Jun-ya Norimatsu
Pythonによる機械学習入門〜基礎からDeep Learningまで〜
Pythonによる機械学習入門〜基礎からDeep Learningまで〜
Yasutomo Kawanishi
Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~
Yasutomo Kawanishi
科学技術計算関連Pythonパッケージの概要
科学技術計算関連Pythonパッケージの概要
Toshihiro Kamishima
画像認識で物を見分ける
画像認識で物を見分ける
Kazuaki Tanida
2013.07.15 はじパタlt scikit-learnで始める機械学習
2013.07.15 はじパタlt scikit-learnで始める機械学習
Motoya Wakiyama
深層学習フレームワークChainerの紹介とFPGAへの期待
深層学習フレームワークChainerの紹介とFPGAへの期待
Seiya Tokui
分類問題 - 機械学習ライブラリ scikit-learn の活用
分類問題 - 機械学習ライブラリ scikit-learn の活用
y-uti
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
Kenta Oono
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
Koji Matsuda
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
Yuya Unno
Chainer の Trainer 解説と NStepLSTM について
Chainer の Trainer 解説と NStepLSTM について
Retrieva inc.
ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装
Ryosuke Okuta
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
Seiya Tokui
ディープニューラルネット入門
ディープニューラルネット入門
TanUkkii
TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門
Etsuji Nakai
Deep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlow
Tadaichiro Nakano
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
Seiya Tokui
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装について
Yuya Unno
Python 機械学習プログラミング データ分析演習編
Python 機械学習プログラミング データ分析演習編
Etsuji Nakai
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装
Shinya Akiba
Deep learning入門
Deep learning入門
magoroku Yamamoto
mxnetで頑張る深層学習
mxnetで頑張る深層学習
Takashi Kitano
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Yasutomo Kawanishi
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Ohsawa Goodfellow
TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)
Toshihiko Yamakami
Deep Learning を実装する
Deep Learning を実装する
Shuhei Iitsuka
Chainer v1.6からv1.7の新機能
Chainer v1.6からv1.7の新機能
Ryosuke Okuta
わんくま同盟大阪勉強会#61
わんくま同盟大阪勉強会#61
TATSUYA HAYAMIZU
Python physicalcomputing
Python physicalcomputing
Noboru Irieda
Weitere ähnliche Inhalte
Was ist angesagt?
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
Kenta Oono
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
Koji Matsuda
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
Yuya Unno
Chainer の Trainer 解説と NStepLSTM について
Chainer の Trainer 解説と NStepLSTM について
Retrieva inc.
ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装
Ryosuke Okuta
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
Seiya Tokui
ディープニューラルネット入門
ディープニューラルネット入門
TanUkkii
TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門
Etsuji Nakai
Deep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlow
Tadaichiro Nakano
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
Seiya Tokui
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装について
Yuya Unno
Python 機械学習プログラミング データ分析演習編
Python 機械学習プログラミング データ分析演習編
Etsuji Nakai
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装
Shinya Akiba
Deep learning入門
Deep learning入門
magoroku Yamamoto
mxnetで頑張る深層学習
mxnetで頑張る深層学習
Takashi Kitano
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Yasutomo Kawanishi
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Ohsawa Goodfellow
TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)
Toshihiko Yamakami
Deep Learning を実装する
Deep Learning を実装する
Shuhei Iitsuka
Chainer v1.6からv1.7の新機能
Chainer v1.6からv1.7の新機能
Ryosuke Okuta
Was ist angesagt?
(20)
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
Chainer の Trainer 解説と NStepLSTM について
Chainer の Trainer 解説と NStepLSTM について
ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
ディープニューラルネット入門
ディープニューラルネット入門
TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門
Deep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlow
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装について
Python 機械学習プログラミング データ分析演習編
Python 機械学習プログラミング データ分析演習編
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装
Deep learning入門
Deep learning入門
mxnetで頑張る深層学習
mxnetで頑張る深層学習
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)
Deep Learning を実装する
Deep Learning を実装する
Chainer v1.6からv1.7の新機能
Chainer v1.6からv1.7の新機能
Ähnlich wie 「深層学習」勉強会LT資料 "Chainer使ってみた"
わんくま同盟大阪勉強会#61
わんくま同盟大阪勉強会#61
TATSUYA HAYAMIZU
Python physicalcomputing
Python physicalcomputing
Noboru Irieda
知って得するC#
知って得するC#
Shota Baba
なにわテック20180127
なにわテック20180127
Natsutani Minoru
Twitter sphere of #twitter4j #twtr_hack
Twitter sphere of #twitter4j #twtr_hack
kimukou_26 Kimukou
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
de:code 2017
Replace Output Iterator and Extend Range JP
Replace Output Iterator and Extend Range JP
Akira Takahashi
Pythonと型チェッカー
Pythonと型チェッカー
Tetsuya Morimoto
これからの「言語」の話をしよう ―― 未来を生きるためのツール
これからの「言語」の話をしよう ―― 未来を生きるためのツール
Nobuhisa Koizumi
全力解説!Transformer
全力解説!Transformer
Arithmer Inc.
20171128分散深層学習とChainerMNについて
20171128分散深層学習とChainerMNについて
Preferred Networks
Python を使ってカメリオを高速化した話
Python を使ってカメリオを高速化した話
Nozomu Kaneko
テンプレートメタプログラミング as 式
テンプレートメタプログラミング as 式
digitalghost
GoF デザインパターン 2009
GoF デザインパターン 2009
miwarin
(ゲームじゃない方の)switchで遊びたい話
(ゲームじゃない方の)switchで遊びたい話
Masanori Masui
JAWSUG 20210128
JAWSUG 20210128
陽平 山口
CPU / GPU高速化セミナー!性能モデルの理論と実践:理論編
CPU / GPU高速化セミナー!性能モデルの理論と実践:理論編
Fixstars Corporation
Rの高速化
Rの高速化
弘毅 露崎
OCamlのトップレベルあれそれ
OCamlのトップレベルあれそれ
nomaddo
C++勉強会in広島プレゼン資料
C++勉強会in広島プレゼン資料
真一 北原
Ähnlich wie 「深層学習」勉強会LT資料 "Chainer使ってみた"
(20)
わんくま同盟大阪勉強会#61
わんくま同盟大阪勉強会#61
Python physicalcomputing
Python physicalcomputing
知って得するC#
知って得するC#
なにわテック20180127
なにわテック20180127
Twitter sphere of #twitter4j #twtr_hack
Twitter sphere of #twitter4j #twtr_hack
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
Replace Output Iterator and Extend Range JP
Replace Output Iterator and Extend Range JP
Pythonと型チェッカー
Pythonと型チェッカー
これからの「言語」の話をしよう ―― 未来を生きるためのツール
これからの「言語」の話をしよう ―― 未来を生きるためのツール
全力解説!Transformer
全力解説!Transformer
20171128分散深層学習とChainerMNについて
20171128分散深層学習とChainerMNについて
Python を使ってカメリオを高速化した話
Python を使ってカメリオを高速化した話
テンプレートメタプログラミング as 式
テンプレートメタプログラミング as 式
GoF デザインパターン 2009
GoF デザインパターン 2009
(ゲームじゃない方の)switchで遊びたい話
(ゲームじゃない方の)switchで遊びたい話
JAWSUG 20210128
JAWSUG 20210128
CPU / GPU高速化セミナー!性能モデルの理論と実践:理論編
CPU / GPU高速化セミナー!性能モデルの理論と実践:理論編
Rの高速化
Rの高速化
OCamlのトップレベルあれそれ
OCamlのトップレベルあれそれ
C++勉強会in広島プレゼン資料
C++勉強会in広島プレゼン資料
Mehr von Ken'ichi Matsui
ベータ分布の謎に迫る
ベータ分布の謎に迫る
Ken'ichi Matsui
音楽波形データからコードを推定してみる
音楽波形データからコードを推定してみる
Ken'ichi Matsui
データサイエンティストの仕事とデータ分析コンテスト
データサイエンティストの仕事とデータ分析コンテスト
Ken'ichi Matsui
分析コンペティションの光と影
分析コンペティションの光と影
Ken'ichi Matsui
Kaggle Google Quest Q&A Labeling 反省会 LT資料 47th place solution
Kaggle Google Quest Q&A Labeling 反省会 LT資料 47th place solution
Ken'ichi Matsui
BERT入門
BERT入門
Ken'ichi Matsui
データ分析コンテストとデータサイエンティストの働きかた
データ分析コンテストとデータサイエンティストの働きかた
Ken'ichi Matsui
確率分布の成り立ちを理解してスポーツにあてはめてみる
確率分布の成り立ちを理解してスポーツにあてはめてみる
Ken'ichi Matsui
SIGNATE産業技術総合研究所 衛星画像分析コンテスト2位入賞モデルの工夫点
SIGNATE産業技術総合研究所 衛星画像分析コンテスト2位入賞モデルの工夫点
Ken'ichi Matsui
Introduction of VAE
Introduction of VAE
Ken'ichi Matsui
Variational Autoencoderの紹介
Variational Autoencoderの紹介
Ken'ichi Matsui
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
Ken'ichi Matsui
DS LT祭り 「AUCが0.01改善したって どういうことですか?」
DS LT祭り 「AUCが0.01改善したって どういうことですか?」
Ken'ichi Matsui
統計的学習の基礎 4章 前半
統計的学習の基礎 4章 前半
Ken'ichi Matsui
基礎からのベイズ統計学 輪読会資料 第8章 「比率・相関・信頼性」
基礎からのベイズ統計学 輪読会資料 第8章 「比率・相関・信頼性」
Ken'ichi Matsui
第13回数学カフェ「素数!!」二次会 LT資料「乱数!!」
第13回数学カフェ「素数!!」二次会 LT資料「乱数!!」
Ken'ichi Matsui
「ベータ分布の謎に迫る」第6回 プログラマのための数学勉強会 LT資料
「ベータ分布の謎に迫る」第6回 プログラマのための数学勉強会 LT資料
Ken'ichi Matsui
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
Ken'ichi Matsui
Random Forest による分類
Random Forest による分類
Ken'ichi Matsui
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
Ken'ichi Matsui
Mehr von Ken'ichi Matsui
(20)
ベータ分布の謎に迫る
ベータ分布の謎に迫る
音楽波形データからコードを推定してみる
音楽波形データからコードを推定してみる
データサイエンティストの仕事とデータ分析コンテスト
データサイエンティストの仕事とデータ分析コンテスト
分析コンペティションの光と影
分析コンペティションの光と影
Kaggle Google Quest Q&A Labeling 反省会 LT資料 47th place solution
Kaggle Google Quest Q&A Labeling 反省会 LT資料 47th place solution
BERT入門
BERT入門
データ分析コンテストとデータサイエンティストの働きかた
データ分析コンテストとデータサイエンティストの働きかた
確率分布の成り立ちを理解してスポーツにあてはめてみる
確率分布の成り立ちを理解してスポーツにあてはめてみる
SIGNATE産業技術総合研究所 衛星画像分析コンテスト2位入賞モデルの工夫点
SIGNATE産業技術総合研究所 衛星画像分析コンテスト2位入賞モデルの工夫点
Introduction of VAE
Introduction of VAE
Variational Autoencoderの紹介
Variational Autoencoderの紹介
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
DS LT祭り 「AUCが0.01改善したって どういうことですか?」
DS LT祭り 「AUCが0.01改善したって どういうことですか?」
統計的学習の基礎 4章 前半
統計的学習の基礎 4章 前半
基礎からのベイズ統計学 輪読会資料 第8章 「比率・相関・信頼性」
基礎からのベイズ統計学 輪読会資料 第8章 「比率・相関・信頼性」
第13回数学カフェ「素数!!」二次会 LT資料「乱数!!」
第13回数学カフェ「素数!!」二次会 LT資料「乱数!!」
「ベータ分布の謎に迫る」第6回 プログラマのための数学勉強会 LT資料
「ベータ分布の謎に迫る」第6回 プログラマのための数学勉強会 LT資料
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
Random Forest による分類
Random Forest による分類
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
「深層学習」勉強会LT資料 "Chainer使ってみた"
1.
Chainer使ってみた @kenmatsu4 2015.8.5 機械学習プロフェッショナルシリーズ輪読会 #4 Lightning Talk
2.
自己紹介 ・Twitterアカウント @kenmatsu4 ・Qiitaでブログを書いています(統計、機械学習、Python等) http://qiita.com/kenmatsu4 (2500 contributionを超えました!) ・趣味 - バンドでベースを弾いたりしています。 -
主に東南アジアへバックパック旅行に行ったりします (カンボジア、ミャンマー、バングラデシュ、新疆ウイグル自治区 etc) 旅行の写真 : http://matsu-ken.jimdo.com Twitterアイコン
3.
2015.6.9 Deep Learning Framework
Chainer Release!
4.
特徴 • All Pythonで記載ができるので、設定ファイル等 のフォーマットを覚える必要がない。 •
インストールが簡単 pip install chainer
5.
王道、MNIST手書き数字で試す。
6.
モデルは入力784 units、出力10 units
7.
# Prepare multi-layer
perceptron model # 多層パーセプトロンモデルの設定 # 入力 784次元、出力 10次元 model = FunctionSet( l1=F.Linear(784, n_units), l2=F.Linear(n_units, n_units), l3=F.Linear(n_units, 10)) コード:モデル定義
8.
# Prepare multi-layer
perceptron model # 多層パーセプトロンモデルの設定 # 入力 784次元、出力 10次元 model = FunctionSet( l1=F.Linear(784, n_units), l2=F.Linear(n_units, n_units), l3=F.Linear(n_units, 10)) コード:モデル定義(POINT:入出力定義)
9.
# ニューラルネットの構造 def forward(x_data,
y_data, train=True): x, t = Variable(x_data), Variable(y_data) h1 = F.dropout(F.relu(model.l1(x)), train=train) h2 = F.dropout(F.relu(model.l2(h1)), train=train) y = model.l3(h2) # 多クラス分類なので誤差関数としてソフトマックス関数の # 交差エントロピー関数を用いて、誤差を導出 return F.softmax_cross_entropy(y, t), F.accuracy(y, t) コード:順伝播
10.
# ニューラルネットの構造 def forward(x_data,
y_data, train=True): x, t = Variable(x_data), Variable(y_data) h1 = F.dropout(F.relu(model.l1(x)), train=train) h2 = F.dropout(F.relu(model.l2(h1)), train=train) y = model.l3(h2) # 多クラス分類なので誤差関数としてソフトマックス関数の # 交差エントロピー関数を用いて、誤差を導出 return F.softmax_cross_entropy(y, t), F.accuracy(y, t) コード:順伝播(POINT: Variableクラス)
11.
基本クラスの一つです http://docs.chainer.org/en/latest/reference/core/variable.html#variable
12.
基本クラスの一つです http://docs.chainer.org/en/latest/reference/core/variable.html#variable このクラスに、データ、パラメータ、 モデルの構造等を持たせて、 誤差逆伝播を行います。
13.
# ニューラルネットの構造 def forward(x_data,
y_data, train=True): x, t = Variable(x_data), Variable(y_data) h1 = F.dropout(F.relu(model.l1(x)), train=train) h2 = F.dropout(F.relu(model.l2(h1)), train=train) y = model.l3(h2) # 多クラス分類なので誤差関数としてソフトマックス関数の # 交差エントロピー関数を用いて、誤差を導出 return F.softmax_cross_entropy(y, t), F.accuracy(y, t) コード:順伝播(POINT: relu関数)
14.
コード:順伝播(POINT: relu関数) relu(x) =
max(0, x)
15.
# ニューラルネットの構造 def forward(x_data,
y_data, train=True): x, t = Variable(x_data), Variable(y_data) h1 = F.dropout(F.relu(model.l1(x)), train=train) h2 = F.dropout(F.relu(model.l2(h1)), train=train) y = model.l3(h2) # 多クラス分類なので誤差関数としてソフトマックス関数の # 交差エントロピー関数を用いて、誤差を導出 return F.softmax_cross_entropy(y, t), F.accuracy(y, t) コード:順伝播(POINT: dropout関数)
16.
コード:順伝播(POINT: dropout関数) x2# x783 x784 x1 x0 z10u10 z1u1 z2u1 z9u9 z1000u1000 z999u999 u1##z1 u2##z2 z0 z1000u1000 z999u999 u1##z1 u2##z2 z0
17.
コード:順伝播(POINT: dropout関数) x2# x784 x0 z10u10 z1u1 z2u1 z9u9 z999u999 u1##z1 z0 z1000u1000 u1##z1 z0
18.
# ニューラルネットの構造 def forward(x_data,
y_data, train=True): x, t = Variable(x_data), Variable(y_data) h1 = F.dropout(F.relu(model.l1(x)), train=train) h2 = F.dropout(F.relu(model.l2(h1)), train=train) y = model.l3(h2) # 多クラス分類なので誤差関数としてソフトマックス関数の # 交差エントロピー関数を用いて、誤差を導出 return F.softmax_cross_entropy(y, t), F.accuracy(y, t) コード:順伝播(POINT: softmax関数)
19.
コード:順伝播(POINT: softmax関数) yk =
zk = fk(u) = exp(uk) PK j exp(uj) En = X k dk log exp(uk) PK j exp(uj) ! 交差エントロピー関数 ソフトマックス関数
20.
# Setup optimizer optimizer
= optimizers.Adam() optimizer.setup(model.collect_parameters()) コード:Optimizerの設定 Optimizerで勾配法を選択する。 今回はAdamを使用。 http://ja.scribd.com/doc/260859670/30minutes-Adam Adamの参考
21.
for epoch in
xrange(1, n_epoch+1): perm = np.random.permutation(N) # 0∼Nまでのデータをバッチサイズごとに使って学習 for i in xrange(0, N, batchsize): x_batch = x_train[perm[i:i+batchsize]] y_batch = y_train[perm[i:i+batchsize]] # 勾配を初期化 optimizer.zero_grads() # 順伝播させて誤差と精度を算出 loss, acc = forward(x_batch, y_batch) # 誤差逆伝播で勾配を計算 loss.backward() optimizer.update() コード:学習
22.
train_loss.append(loss.data) train_acc.append(acc.data) sum_loss += float(cuda.to_cpu(loss.data)) *
batchsize sum_accuracy += float(cuda.to_cpu(acc.data)) * batchsize # 訓練データの誤差と、正解精度を表示 print 'train mean loss={}, accuracy={}' .format(sum_loss / N,sum_accuracy / N) コード:学習
23.
#evaluation #テストデータで誤差と、正解精度を算出し汎化性能を確認 sum_accuracy = 0 sum_loss
= 0 for i in xrange(0, N_test, batchsize): x_batch = x_test[i:i+batchsize] y_batch = y_test[i:i+batchsize] # 順伝播させて誤差と精度を算出 loss, acc = forward(x_batch, y_batch, train=False) test_loss.append(loss.data) test_acc.append(acc.data) コード:評価
24.
sum_loss += float(cuda.to_cpu(loss.data)) *
batchsize sum_accuracy += float(cuda.to_cpu(acc.data)) * batchsize # テストデータでの誤差と、正解精度を表示 print 'test mean loss={}, accuracy={}’ .format(sum_loss / N_test, sum_accuracy / N_test) コード:評価
25.
結果
26.
結果 間違ったのはこの1つだけ。 でも、9にも見えるので仕方ない!?
27.
結果:パラメーター の可視化w
28.
Autoencoder
29.
概要
30.
時間がないので結果だけ・・・
31.
活性化関数 中間層数 Dropout
ノイズ付加 Sigmoid 1000 あり なし 誤差の推移:20回しくらいで大体収束
32.
活性化関数 中間層数 Dropout
ノイズ付加 Sigmoid 1000 あり なし 出力結果:ほとんど復元できている
33.
活性化関数 中間層数 Dropout
ノイズ付加 Sigmoid 1000 あり なし 第一層 w (1) ji の可視化
34.
活性化関数 中間層数 Dropout
ノイズ付加 Sigmoid 1000 あり なし 第一層 w (1) ji の可視化 結構、数字のエッジ等、 特徴らしきものを捉えられている
35.
活性化関数 中間層数 Dropout
ノイズ付加 Sigmoid 1000 あり なし 第二層 の可視化w (2) ji
36.
詳細はこちらをご覧ください! • 【機械学習】ディープラーニング フレームワーク Chainerを試しながら解説してみる。 http://qiita.com/kenmatsu4/items/7b8d24d4c5144a686412 •
【ディープラーニング】ChainerでAutoencoderを試 して結果を可視化してみる。 http://qiita.com/kenmatsu4/items/99d4a54d5a57405ecaf8
37.
また、Chainerの仕組みについては作者の方が非常に わかりやすくまとめられているので、ぜひご参考ください! http://www.slideshare.net/beam2d/chainer-atfpgax7
38.
Thanks • Chainer Homepage http://chainer.org •
Chainer Github page https://github.com/pfnet/chainer • Chainer Document http://docs.chainer.org • Azusa Colors (Keynote template) http://sanographix.github.io/azusa-colors/
Jetzt herunterladen