Suche senden
Hochladen
A yet another brief introduction to neural networks
•
22 gefällt mir
•
13,555 views
Yuta Kikuchi
Folgen
研究室で過去に発表したもののだいぶ改訂版です.
Weniger lesen
Mehr lesen
Technologie
Melden
Teilen
Melden
Teilen
1 von 44
Jetzt herunterladen
Downloaden Sie, um offline zu lesen
Empfohlen
ダイクストラ法
ダイクストラ法
ohsofty
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
Koji Yoshida
プログラミング技法特論第7回
プログラミング技法特論第7回
Noritada Shimizu
ラビットチャレンジレポート 深層学習 Day1
ラビットチャレンジレポート 深層学習 Day1
ssuserf4860b
足し算をつくろう
足し算をつくろう
Yoichi Toyota
060 期待値・中心極限定理
060 期待値・中心極限定理
t2tarumi
[Basic 14] 暗号について / RSA 暗号 / 楕円曲線暗号
[Basic 14] 暗号について / RSA 暗号 / 楕円曲線暗号
Yuto Takei
SVM
SVM
Yuki Nakayama
Empfohlen
ダイクストラ法
ダイクストラ法
ohsofty
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
Koji Yoshida
プログラミング技法特論第7回
プログラミング技法特論第7回
Noritada Shimizu
ラビットチャレンジレポート 深層学習 Day1
ラビットチャレンジレポート 深層学習 Day1
ssuserf4860b
足し算をつくろう
足し算をつくろう
Yoichi Toyota
060 期待値・中心極限定理
060 期待値・中心極限定理
t2tarumi
[Basic 14] 暗号について / RSA 暗号 / 楕円曲線暗号
[Basic 14] 暗号について / RSA 暗号 / 楕円曲線暗号
Yuto Takei
SVM
SVM
Yuki Nakayama
6 Info Theory
6 Info Theory
melvincabatuan
SVM
SVM
Yuki Nakayama
Chainerを使って細胞を数えてみた
Chainerを使って細胞を数えてみた
samacoba1983
誤差逆伝播法の計算(ディープラーニング)
誤差逆伝播法の計算(ディープラーニング)
t dev
RUPC2017:M問題
RUPC2017:M問題
Takumi Yamashita
サポートベクトルマシン入門
サポートベクトルマシン入門
Wakamatz
楕円曲線セキュリティー
楕円曲線セキュリティー
Jonathan Underwood
K2PC Div1 E 暗号化
K2PC Div1 E 暗号化
Kazuma Mikami
3 Info Theory
3 Info Theory
melvincabatuan
情報オリンピック夏合宿発表
情報オリンピック夏合宿発表
Kazuma Mikami
04.第四章用Matlab求偏导数
04.第四章用Matlab求偏导数
Xin Zheng
第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)
Shin Asakawa
プロジェクト最終発表
プロジェクト最終発表
光稀 松本
Integrating different data types by regularized unsupervised multiple kernel...
Integrating different data types by regularized unsupervised multiple kernel...
Y-h Taguchi
Deep Learning - Forward Propagation
Deep Learning - Forward Propagation
Shinobu Kinjo
経済数学II 「第9章 最適化(Optimization)」
経済数学II 「第9章 最適化(Optimization)」
Wataru Shito
自然言語処理のためのDeep Learning
自然言語処理のためのDeep Learning
Yuta Kikuchi
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
A Neural Attention Model for Sentence Summarization [Rush+2015]
A Neural Attention Model for Sentence Summarization [Rush+2015]
Yuta Kikuchi
Learning Phrase Representations using RNN Encoder-Decoder for Statistical Mac...
Learning Phrase Representations using RNN Encoder-Decoder for Statistical Mac...
Yuta Kikuchi
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
Shotaro Sano
現在のDNNにおける未解決問題
現在のDNNにおける未解決問題
Daisuke Okanohara
Weitere ähnliche Inhalte
Was ist angesagt?
6 Info Theory
6 Info Theory
melvincabatuan
SVM
SVM
Yuki Nakayama
Chainerを使って細胞を数えてみた
Chainerを使って細胞を数えてみた
samacoba1983
誤差逆伝播法の計算(ディープラーニング)
誤差逆伝播法の計算(ディープラーニング)
t dev
RUPC2017:M問題
RUPC2017:M問題
Takumi Yamashita
サポートベクトルマシン入門
サポートベクトルマシン入門
Wakamatz
楕円曲線セキュリティー
楕円曲線セキュリティー
Jonathan Underwood
K2PC Div1 E 暗号化
K2PC Div1 E 暗号化
Kazuma Mikami
3 Info Theory
3 Info Theory
melvincabatuan
情報オリンピック夏合宿発表
情報オリンピック夏合宿発表
Kazuma Mikami
04.第四章用Matlab求偏导数
04.第四章用Matlab求偏导数
Xin Zheng
第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)
Shin Asakawa
プロジェクト最終発表
プロジェクト最終発表
光稀 松本
Integrating different data types by regularized unsupervised multiple kernel...
Integrating different data types by regularized unsupervised multiple kernel...
Y-h Taguchi
Deep Learning - Forward Propagation
Deep Learning - Forward Propagation
Shinobu Kinjo
経済数学II 「第9章 最適化(Optimization)」
経済数学II 「第9章 最適化(Optimization)」
Wataru Shito
Was ist angesagt?
(16)
6 Info Theory
6 Info Theory
SVM
SVM
Chainerを使って細胞を数えてみた
Chainerを使って細胞を数えてみた
誤差逆伝播法の計算(ディープラーニング)
誤差逆伝播法の計算(ディープラーニング)
RUPC2017:M問題
RUPC2017:M問題
サポートベクトルマシン入門
サポートベクトルマシン入門
楕円曲線セキュリティー
楕円曲線セキュリティー
K2PC Div1 E 暗号化
K2PC Div1 E 暗号化
3 Info Theory
3 Info Theory
情報オリンピック夏合宿発表
情報オリンピック夏合宿発表
04.第四章用Matlab求偏导数
04.第四章用Matlab求偏导数
第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)
プロジェクト最終発表
プロジェクト最終発表
Integrating different data types by regularized unsupervised multiple kernel...
Integrating different data types by regularized unsupervised multiple kernel...
Deep Learning - Forward Propagation
Deep Learning - Forward Propagation
経済数学II 「第9章 最適化(Optimization)」
経済数学II 「第9章 最適化(Optimization)」
Andere mochten auch
自然言語処理のためのDeep Learning
自然言語処理のためのDeep Learning
Yuta Kikuchi
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
A Neural Attention Model for Sentence Summarization [Rush+2015]
A Neural Attention Model for Sentence Summarization [Rush+2015]
Yuta Kikuchi
Learning Phrase Representations using RNN Encoder-Decoder for Statistical Mac...
Learning Phrase Representations using RNN Encoder-Decoder for Statistical Mac...
Yuta Kikuchi
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
Shotaro Sano
現在のDNNにおける未解決問題
現在のDNNにおける未解決問題
Daisuke Okanohara
深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向
STAIR Lab, Chiba Institute of Technology
R intro
R intro
yayamamo @ DBCLS Kashiwanoha
Pythonで自然言語処理
Pythonで自然言語処理
moai kids
音声合成の基礎
音声合成の基礎
Akinori Ito
単語分散表現を用いた多層 Denoising Auto-Encoder による評価極性分類
単語分散表現を用いた多層 Denoising Auto-Encoder による評価極性分類
Peinan ZHANG
Unityで音声認識
Unityで音声認識
光喜 濱屋
音声の認識と合成
音声の認識と合成
Akinori Ito
自称・世界一わかりやすい音声認識入門
自称・世界一わかりやすい音声認識入門
Tom Hakamata
RNNLM
RNNLM
Kei Uchiumi
Locking down a Hitachi ID Management Suite server
Locking down a Hitachi ID Management Suite server
Hitachi ID Systems, Inc.
tranSMART Community Meeting 5-7 Nov 13 - Session 2: MongoDB: What, Why And When
tranSMART Community Meeting 5-7 Nov 13 - Session 2: MongoDB: What, Why And When
David Peyruc
BelalOssamaAbuLabanResume2016 - Copy
BelalOssamaAbuLabanResume2016 - Copy
belal abulaban
Ejercicio tecnica vocal
Ejercicio tecnica vocal
ANAIS TIPAN
现代化敏捷测试工作者
现代化敏捷测试工作者
Yi Xu
Andere mochten auch
(20)
自然言語処理のためのDeep Learning
自然言語処理のためのDeep Learning
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
A Neural Attention Model for Sentence Summarization [Rush+2015]
A Neural Attention Model for Sentence Summarization [Rush+2015]
Learning Phrase Representations using RNN Encoder-Decoder for Statistical Mac...
Learning Phrase Representations using RNN Encoder-Decoder for Statistical Mac...
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
現在のDNNにおける未解決問題
現在のDNNにおける未解決問題
深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向
R intro
R intro
Pythonで自然言語処理
Pythonで自然言語処理
音声合成の基礎
音声合成の基礎
単語分散表現を用いた多層 Denoising Auto-Encoder による評価極性分類
単語分散表現を用いた多層 Denoising Auto-Encoder による評価極性分類
Unityで音声認識
Unityで音声認識
音声の認識と合成
音声の認識と合成
自称・世界一わかりやすい音声認識入門
自称・世界一わかりやすい音声認識入門
RNNLM
RNNLM
Locking down a Hitachi ID Management Suite server
Locking down a Hitachi ID Management Suite server
tranSMART Community Meeting 5-7 Nov 13 - Session 2: MongoDB: What, Why And When
tranSMART Community Meeting 5-7 Nov 13 - Session 2: MongoDB: What, Why And When
BelalOssamaAbuLabanResume2016 - Copy
BelalOssamaAbuLabanResume2016 - Copy
Ejercicio tecnica vocal
Ejercicio tecnica vocal
现代化敏捷测试工作者
现代化敏捷测试工作者
Ähnlich wie A yet another brief introduction to neural networks
NN, CNN, and Image Analysis
NN, CNN, and Image Analysis
Yuki Shimada
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
hirokazutanaka
2値分類・多クラス分類
2値分類・多クラス分類
t dev
Re revenge chap03-1
Re revenge chap03-1
裕樹 奥田
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
Chika Inoshita
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
sleipnir002
Deep Learning を実装する
Deep Learning を実装する
Shuhei Iitsuka
20150803.山口大学集中講義
20150803.山口大学集中講義
Hayaru SHOUNO
PRML Chapter5.2
PRML Chapter5.2
Takuya Minagawa
Infomation geometry(overview)
Infomation geometry(overview)
Yoshitake Misaki
機械学習と深層学習の数理
機械学習と深層学習の数理
Ryo Nakamura
PRML5
PRML5
Hidekazu Oiwa
Building High-level Features Using Large Scale Unsupervised Learning
Building High-level Features Using Large Scale Unsupervised Learning
Takuya Minagawa
Implicit Explicit Scala
Implicit Explicit Scala
Kota Mizushima
Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5
KazuhiroSato8
5 Info Theory
5 Info Theory
melvincabatuan
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリング
Maruyama Tetsutaro
線形識別モデル
線形識別モデル
貴之 八木
Ähnlich wie A yet another brief introduction to neural networks
(19)
NN, CNN, and Image Analysis
NN, CNN, and Image Analysis
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
2値分類・多クラス分類
2値分類・多クラス分類
Re revenge chap03-1
Re revenge chap03-1
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
Deep Learning を実装する
Deep Learning を実装する
20150803.山口大学集中講義
20150803.山口大学集中講義
PRML Chapter5.2
PRML Chapter5.2
Infomation geometry(overview)
Infomation geometry(overview)
機械学習と深層学習の数理
機械学習と深層学習の数理
PRML5
PRML5
Building High-level Features Using Large Scale Unsupervised Learning
Building High-level Features Using Large Scale Unsupervised Learning
Implicit Explicit Scala
Implicit Explicit Scala
Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5
5 Info Theory
5 Info Theory
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリング
線形識別モデル
線形識別モデル
Kürzlich hochgeladen
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
Toru Tamaki
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
Toru Tamaki
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
taisei2219
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Yuma Ohgami
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
iPride Co., Ltd.
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
sugiuralab
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
Ryo Sasaki
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
Toru Tamaki
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
Hiroki Ichikura
Kürzlich hochgeladen
(9)
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
A yet another brief introduction to neural networks
1.
A yet another brief
introduction to Neural Networks 菊池 悠太
2.
Neural Network 入力層x 隠れ層z 出力層y
3.
入力層x 隠れ層z 出力層y 生データ,抽出した素性 予測 Neural Network
4.
入力層x 隠れ層z 出力層y 例えば,手書き数字認識 784次元 10次元 MNIST (28*28の画像) 3!! [0.05, 0.05,
0.05, 0.40, 0.05, 0.05, 0.15, 0.05, 0.15, 0.05] 10次元の確率分布 (左から,入力画像が, 0である確率, 1である確率 ... 9である確率) 28*28= 784次元の数値ベクトル
5.
入力層x 隠れ層z 出力層y Neuron 隠れユニットjの 入力層に対する重み W1 隠れユニットj
6.
隠れユニットjの 入力層に対する重み W1 隠れユニットj 出力ユニットk 出力ユニットkの 隠れ層に対する重みW2 入力層x 隠れ層z 出力層y Neuron
7.
入力層x 隠れ層z 出力層y W1 W2 行列で表現 層間の重みを行列で表現
8.
Neural Networkの処理 - Forward
propagation - Back propagation - Parameter update
9.
Neural Networkの処理 - Forward
propagation - Back propagation - Parameter update
10.
Forward Propagation 入力層x 隠れ層z 出力層y 入力に対し出力を出す output x input
y
11.
入力層x 隠れ層z 出力層y z = f(W1x
+ b1) 入力層から隠れ層への情報の伝播 非線形活性化関数f( ) tanh とか sigmoid とか f(x0) f(x1) f(x2) f(x3) f(x) =
12.
入力層x 隠れ層z 出力層y z = f(W1x
+ b1) 入力層から隠れ層への情報の伝播 非線形活性化関数f( ) tanh,sigmoid reLU, maxout... f(x0) f(x1) f(x2) f(x3) f(x) = f( )
13.
入力層x 隠れ層z 出力層y z = f(W1x
+ b1) f( ) 入力層から隠れ層への情報の伝播 ⼊入⼒力力の情報を 重み付きで受け取る 隠れユニットが出す 出⼒力力値が決まる
14.
入力層x 隠れ層z 出力層y z = f(W1x
+ b1) 入力層から隠れ層への情報の伝播 f( ) 非線形活性化関数f( ) tanh,sigmoid reLU, maxout... f(x0) f(x1) f(x2) f(x3) f(x) =
15.
入力層x 隠れ層z 出力層y 出⼒力力層⽤用の 非線形活性化関数σ( ) タスク依存 隠れ層から出力層への情報の伝播 y =
(W2z + b2)
16.
入力層x 隠れ層z 出力層y 出⼒力力層⽤用の 非線形活性化関数σ( ) タスク依存 隠れ層から出力層への情報の伝播 y =
(W2z + b2)
17.
入力層x 隠れ層z 出力層y タスク依存の出力層 解きたいタスクによって σが変わる - 回帰 - 二値分類 -
多値分類 - マルチラベリング y = (W2z + b2)
18.
実数 入力層x 隠れ層z 出力層y 回帰のケース 出力に値域はいらない 恒等写像でそのまま出力 (a) = a y
= (W2z + b2)
19.
[0:1] 二値分類のケース 出力層は確率 σは0.0~1.0であって欲しい (a) = 1 1+exp(
a) Sigmoid関数入力層x 隠れ層z 出力層y y = (W2z + b2)
20.
入力層x 隠れ層z 出力層y 多値分類のケース 出力は確率分布 各ノード0以上,総和が1 Softmax関数 sum( 0.2 0.7
0.1 )=1.0 (a) = exp(a) exp(a) y = (W2z + b2)
21.
入力層x 隠れ層z 出力層y マルチラベリングのケース 各々が独立に二値分類 (a) = 1 1+exp(
a) element-wiseで Sigmoid関数 [0:1] [0:1] [0:1] y = (W2z + b2)
22.
ちなみに多層になった場合 ... 出力層だけタスク依存 隠れ層はぜんぶ同じ 出力層 隠れ層1 隠れ層N ...
23.
Forward Propagation 入力層x 隠れ層z 出力層y z =
f(W1x + b1) y = (W2z + b2)
24.
Neural Networkの処理 - Forward
propagation - Back propagation - Parameter update
25.
Back Propagation 入力層x 隠れ層z 出力層y 正解t NNが入力に対する出力の 予測を間違えた場合 正解するように修正したい
26.
Back Propagation 入力層x 隠れ層z 出力層y 正解t NNが入力に対する出力の 予測を間違えた場合 正解するように修正したい 修正対象: 層間の重み z
= f(W1x + b1) ↑と,バイアス y = (W2z + b2)
27.
Back Propagation 入力層x 隠れ層z 出力層y 正解t 誤差関数を最⼩小化するよう修正 E( )
= 1 2 y( ) t 2 E = K k=1 tk log yk E = t log y (1 t) log(1 y) E = K k=1 t log y + (1 t) log(1 y) いずれも予測と正解が 違うほど⼤大きくなる
28.
Back Propagation 入力層x 隠れ層z 出力層y 正解t 出力ラベルと正解の差 ノードの誤差を計算 y =
y t
29.
Back Propagation 入力層x 隠れ層z 出力層y 正解t ノードの誤差を計算 出力ラベルと正解の差 自分が情報を伝えた先の 誤差が伝播してくる z =
WT 2 yf (az) y = y t
30.
Back Propagation 入力層x 隠れ層z 出力層y 正解t y =
y t z = WT 2 yf (az) 出力ラベルと正解の差 ノードの誤差を計算 自分の影響で上で発生した誤差
31.
Back Propagation 入力層x 隠れ層z 出力層y 正解t 重みの勾配を計算 ⾃自分が上に伝えた 情報で発⽣生した誤差 En W2 = yzT En W1 =
zxT
32.
Back Propagation 入力層x 隠れ層z 出力層y 正解t 重みの勾配を計算 ⾃自分が上に伝えた 情報で発⽣生した誤差 En W2 = yzT En W1 =
zxT
33.
Neural Networkの処理 - Forward
propagation - Back propagation - Parameter update
34.
Update parameters 入力層x 隠れ層z 出力層y 正解t 重みの更新 W1
= W1 En W1 W2 = W2 En W2
35.
Update parameters 入力層x 隠れ層z 出力層y 正解t 重みの更新 W1
= W1 En W1 W2 = W2 En W2 -Gradient Descent -Stochastic Gradient Descent -SGD with mini-batch 修正するタイミングの違い
36.
Neural Network の処理まとめ
37.
Forward Propagation 入力層x 隠れ層z 出力層y output x input
y z = f(W1x + b1) y = (W2z + b2) 入力から予測
38.
Back Propagation 入力層x 隠れ層z 出力層y 正解t 誤差と勾配を計算 z
= WT 2 yf (az) y = y t En W2 = yzT En W1 = zxT
39.
Update parameters 入力層x 隠れ層z 出力層y 正解t 勾配方向へ重み更新 W1
= W1 En W1 W2 = W2 En W2
40.
ちなみにAutoencoder Neural Networkの特殊系 1. 入力と出力の次元が同じ 2.
教師信号が入力そのもの 入力を圧縮※1して復元 ※1 圧縮(隠れ層が入力層より少ない)でなくても,適切に正則化すればうまくいく
41.
Neural Networkの特殊系 Autoencoder z =
f(W1x + b1) y = (W2z + b2)
42.
Neural Networkの特殊系 Autoencoder y =
(W2z + b2) (a) = 1 1+exp( a) element-wiseで Sigmoid関数 マルチラベリングのケースに該当 画像の場合,各画素(ユニット)ごとに 明るさ(0.0:黒, 1.0:白)を判定するため
43.
Autoencoderの学習するもの
44.
Denoising Autoencoder add noise denoise 正則化法の一つ,再構築+ノイズの除去
Jetzt herunterladen