Suche senden
Hochladen
深層学習(講談社)のまとめ(1章~2章)
•
3 gefällt mir
•
1,151 views
O
okku apot
Folgen
自分用のまとめです。内容等には一切の責任を持ちません。 ブログ↓ http://want-to-be-rikei.blogspot.jp
Weniger lesen
Mehr lesen
Technologie
Melden
Teilen
Melden
Teilen
1 von 21
Jetzt herunterladen
Downloaden Sie, um offline zu lesen
Empfohlen
数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム
裕樹 奥田
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
tmtm otm
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
Yasunori Ozaki
点群深層学習 Meta-study
点群深層学習 Meta-study
Naoya Chiba
PRML読み会第一章
PRML読み会第一章
Takushi Miki
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)
Ryosuke Sasaki
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論
Akihiro Nitta
Empfohlen
数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム
裕樹 奥田
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
tmtm otm
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
Yasunori Ozaki
点群深層学習 Meta-study
点群深層学習 Meta-study
Naoya Chiba
PRML読み会第一章
PRML読み会第一章
Takushi Miki
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)
Ryosuke Sasaki
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論
Akihiro Nitta
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
Ohsawa Goodfellow
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
Yamato OKAMOTO
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
京都大学大学院情報学研究科数理工学専攻
PRML輪読#1
PRML輪読#1
matsuolab
幾何を使った統計のはなし
幾何を使った統計のはなし
Toru Imai
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
第10回 配信講義 計算科学技術特論A(2021)
第10回 配信講義 計算科学技術特論A(2021)
RCCSRENKEI
PRML輪読#2
PRML輪読#2
matsuolab
Prml
Prml
syou6162
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
Taiji Suzuki
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
EMアルゴリズム
EMアルゴリズム
Sotetsu KOYAMADA(小山田創哲)
Semantic segmentation
Semantic segmentation
Takuya Minagawa
[DL輪読会]MetaFormer is Actually What You Need for Vision
[DL輪読会]MetaFormer is Actually What You Need for Vision
Deep Learning JP
生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
Ken Morishita
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation
Deep Learning JP
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
Prml6
Prml6
Arata Honda
画像認識のための深層学習
画像認識のための深層学習
Saya Katafuchi
一般向けのDeep Learning
一般向けのDeep Learning
Preferred Networks
Weitere ähnliche Inhalte
Was ist angesagt?
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
Ohsawa Goodfellow
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
Yamato OKAMOTO
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
京都大学大学院情報学研究科数理工学専攻
PRML輪読#1
PRML輪読#1
matsuolab
幾何を使った統計のはなし
幾何を使った統計のはなし
Toru Imai
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
第10回 配信講義 計算科学技術特論A(2021)
第10回 配信講義 計算科学技術特論A(2021)
RCCSRENKEI
PRML輪読#2
PRML輪読#2
matsuolab
Prml
Prml
syou6162
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
Taiji Suzuki
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
EMアルゴリズム
EMアルゴリズム
Sotetsu KOYAMADA(小山田創哲)
Semantic segmentation
Semantic segmentation
Takuya Minagawa
[DL輪読会]MetaFormer is Actually What You Need for Vision
[DL輪読会]MetaFormer is Actually What You Need for Vision
Deep Learning JP
生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
Ken Morishita
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation
Deep Learning JP
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
Prml6
Prml6
Arata Honda
Was ist angesagt?
(20)
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
PRML輪読#1
PRML輪読#1
幾何を使った統計のはなし
幾何を使った統計のはなし
変分ベイズ法の説明
変分ベイズ法の説明
第10回 配信講義 計算科学技術特論A(2021)
第10回 配信講義 計算科学技術特論A(2021)
PRML輪読#2
PRML輪読#2
Prml
Prml
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
EMアルゴリズム
EMアルゴリズム
Semantic segmentation
Semantic segmentation
[DL輪読会]MetaFormer is Actually What You Need for Vision
[DL輪読会]MetaFormer is Actually What You Need for Vision
生成モデルの Deep Learning
生成モデルの Deep Learning
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Prml6
Prml6
Andere mochten auch
画像認識のための深層学習
画像認識のための深層学習
Saya Katafuchi
一般向けのDeep Learning
一般向けのDeep Learning
Preferred Networks
SFC デザイン言語WS(電子工作)第6回「PCとの連携・音」
SFC デザイン言語WS(電子工作)第6回「PCとの連携・音」
Makoto Hirahara
都市工学における情報技術の利用 | 山本覚
都市工学における情報技術の利用 | 山本覚
data-artist
距離が付加された要素集合をコンパクトに表現できるDistance Bloom Filterの提案とP2Pネットワークにおける最短経路探索への応用
距離が付加された要素集合をコンパクトに表現できるDistance Bloom Filterの提案とP2Pネットワークにおける最短経路探索への応用
Kota Abe
SPYSEE新検索機能の裏側
SPYSEE新検索機能の裏側
Naoki Orii
AgileJapan2010 基調講演:野中郁次郎先生による「実践知のリーダシップ~スクラムと知の場作り」
AgileJapan2010 基調講演:野中郁次郎先生による「実践知のリーダシップ~スクラムと知の場作り」
Kenji Hiranabe
人工知能、ロボット、人の心
人工知能、ロボット、人の心
Tsuruaki yukawa
第3回全脳アーキテクチャ勉強会(山川)発表資料
第3回全脳アーキテクチャ勉強会(山川)発表資料
ドワンゴ 人工知能研究所
ヒトがメタファー(表現)を使う理由: Reasons for use of metaphor(ic expression)s by human
ヒトがメタファー(表現)を使う理由: Reasons for use of metaphor(ic expression)s by human
Kow Kuroda
全脳アーキテクチャ勉強会 第1回(山川)
全脳アーキテクチャ勉強会 第1回(山川)
ドワンゴ 人工知能研究所
全脳アーキテクチャ勉強会 第2回 (山川)
全脳アーキテクチャ勉強会 第2回 (山川)
ドワンゴ 人工知能研究所
全脳アーキテクチャ実現への長き道のりをいかに支えるのか
全脳アーキテクチャ実現への長き道のりをいかに支えるのか
ドワンゴ 人工知能研究所
IoTとDeep Learningで自宅警備員を育ててみる
IoTとDeep Learningで自宅警備員を育ててみる
Yasuyuki Sugai
ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題
Kenta Oono
BigData Conference 2015 Autmun
BigData Conference 2015 Autmun
ドワンゴ 人工知能研究所
言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール
Yuya Unno
DeepLearningDay2016Summer
DeepLearningDay2016Summer
Takayoshi Yamashita
DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用
Kazuki Fujikawa
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
NVIDIA Japan
Andere mochten auch
(20)
画像認識のための深層学習
画像認識のための深層学習
一般向けのDeep Learning
一般向けのDeep Learning
SFC デザイン言語WS(電子工作)第6回「PCとの連携・音」
SFC デザイン言語WS(電子工作)第6回「PCとの連携・音」
都市工学における情報技術の利用 | 山本覚
都市工学における情報技術の利用 | 山本覚
距離が付加された要素集合をコンパクトに表現できるDistance Bloom Filterの提案とP2Pネットワークにおける最短経路探索への応用
距離が付加された要素集合をコンパクトに表現できるDistance Bloom Filterの提案とP2Pネットワークにおける最短経路探索への応用
SPYSEE新検索機能の裏側
SPYSEE新検索機能の裏側
AgileJapan2010 基調講演:野中郁次郎先生による「実践知のリーダシップ~スクラムと知の場作り」
AgileJapan2010 基調講演:野中郁次郎先生による「実践知のリーダシップ~スクラムと知の場作り」
人工知能、ロボット、人の心
人工知能、ロボット、人の心
第3回全脳アーキテクチャ勉強会(山川)発表資料
第3回全脳アーキテクチャ勉強会(山川)発表資料
ヒトがメタファー(表現)を使う理由: Reasons for use of metaphor(ic expression)s by human
ヒトがメタファー(表現)を使う理由: Reasons for use of metaphor(ic expression)s by human
全脳アーキテクチャ勉強会 第1回(山川)
全脳アーキテクチャ勉強会 第1回(山川)
全脳アーキテクチャ勉強会 第2回 (山川)
全脳アーキテクチャ勉強会 第2回 (山川)
全脳アーキテクチャ実現への長き道のりをいかに支えるのか
全脳アーキテクチャ実現への長き道のりをいかに支えるのか
IoTとDeep Learningで自宅警備員を育ててみる
IoTとDeep Learningで自宅警備員を育ててみる
ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題
BigData Conference 2015 Autmun
BigData Conference 2015 Autmun
言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール
DeepLearningDay2016Summer
DeepLearningDay2016Summer
DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
Ähnlich wie 深層学習(講談社)のまとめ(1章~2章)
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
Yuta Sugii
LAB-ゼミ資料-1-20150413
LAB-ゼミ資料-1-20150413
Yuki Ogasawara
DeepCas
DeepCas
Koichiro tamura
[DL輪読会]Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Ob...
[DL輪読会]Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Ob...
Deep Learning JP
「解説資料」Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Obj...
「解説資料」Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Obj...
Takumi Ohkuma
PRML輪読#5
PRML輪読#5
matsuolab
20150803.山口大学集中講義
20150803.山口大学集中講義
Hayaru SHOUNO
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
hirokazutanaka
深層学習の数理
深層学習の数理
Taiji Suzuki
特徴パターンを用いた機械学習の説明手法 (JSAI2019)
特徴パターンを用いた機械学習の説明手法 (JSAI2019)
Kohei Asano
Structural data analysis based on multilayer networks
Structural data analysis based on multilayer networks
tm1966
TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門
Etsuji Nakai
MLaPP輪講 Chapter 1
MLaPP輪講 Chapter 1
ryuhmd
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
Seiya Tokui
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
Naoki Hayashi
mi-5. ディープラーニング
mi-5. ディープラーニング
kunihikokaneko1
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
Yusuke Iwasawa
ae-3. ディープラーニングの基礎
ae-3. ディープラーニングの基礎
kunihikokaneko1
Icml2019 kyoto ohno_ver20190805
Icml2019 kyoto ohno_ver20190805
Shuntaro Ohno
Ähnlich wie 深層学習(講談社)のまとめ(1章~2章)
(20)
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
LAB-ゼミ資料-1-20150413
LAB-ゼミ資料-1-20150413
DeepCas
DeepCas
[DL輪読会]Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Ob...
[DL輪読会]Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Ob...
「解説資料」Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Obj...
「解説資料」Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Obj...
PRML輪読#5
PRML輪読#5
20150803.山口大学集中講義
20150803.山口大学集中講義
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
深層学習の数理
深層学習の数理
特徴パターンを用いた機械学習の説明手法 (JSAI2019)
特徴パターンを用いた機械学習の説明手法 (JSAI2019)
Structural data analysis based on multilayer networks
Structural data analysis based on multilayer networks
TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門
MLaPP輪講 Chapter 1
MLaPP輪講 Chapter 1
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
mi-5. ディープラーニング
mi-5. ディープラーニング
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
ae-3. ディープラーニングの基礎
ae-3. ディープラーニングの基礎
Icml2019 kyoto ohno_ver20190805
Icml2019 kyoto ohno_ver20190805
Mehr von okku apot
深層学習(講談社)のまとめ 第8章
深層学習(講談社)のまとめ 第8章
okku apot
深層学習(講談社)のまとめ 第7章
深層学習(講談社)のまとめ 第7章
okku apot
深層学習(講談社)のまとめ 第6章
深層学習(講談社)のまとめ 第6章
okku apot
深層学習(講談社)のまとめ 第5章
深層学習(講談社)のまとめ 第5章
okku apot
深層学習(講談社)のまとめ 第4章
深層学習(講談社)のまとめ 第4章
okku apot
深層学習(講談社)のまとめ 第3章
深層学習(講談社)のまとめ 第3章
okku apot
Mehr von okku apot
(6)
深層学習(講談社)のまとめ 第8章
深層学習(講談社)のまとめ 第8章
深層学習(講談社)のまとめ 第7章
深層学習(講談社)のまとめ 第7章
深層学習(講談社)のまとめ 第6章
深層学習(講談社)のまとめ 第6章
深層学習(講談社)のまとめ 第5章
深層学習(講談社)のまとめ 第5章
深層学習(講談社)のまとめ 第4章
深層学習(講談社)のまとめ 第4章
深層学習(講談社)のまとめ 第3章
深層学習(講談社)のまとめ 第3章
Kürzlich hochgeladen
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
Atomu Hidaka
20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory
osamut
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
iPride Co., Ltd.
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
danielhu54
プレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツール
sugiuralab
PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000
Shota Ito
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
iPride Co., Ltd.
プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価
sugiuralab
Kürzlich hochgeladen
(8)
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
プレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツール
PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価
深層学習(講談社)のまとめ(1章~2章)
1.
深層学習(講談社) 自分用まとめ ※記述内容は間違っている場合もあります 本のまとめシリーズ
2.
今回の本 深層学習 (機械学習プロフェッショナルシリーズ) 出版社:講談社 著者:岡谷貴之 ISBN:978-4061529021
3.
目次 1. 研究の歴史 2. 順伝播型ネットワーク 3.
確率的勾配降下法(順伝播型ネットワークの学習法) 3+α. 誤差逆伝播法 4. 自己符号化器 5. 畳込みニューラルネットワーク(CNN) 6. 再帰型ニューラルネットワーク(RNN) 7. ボルツマンマシン
4.
1. 研究の歴史
5.
1.研究の歴史 人間(生物)の脳神経系を模したニューロン、ニューラルネットワークという モデルが登場 誤差逆伝播法の開発によって再度注目の的に しかし… ・過学習、勾配消失問題などにより多層化が困難 ・層数やユニット数などのパラメータと性能の関連が分からない 画像を対象とした CNNは 成功してたけど… ブーム鎮火 ブーム鎮火 ディープビリーフネットワーク(DBN)※1の研究がきっかけで再ブームに。 制約ボルツマンマシンに分解し貪欲法に従って学習することでDBNが学習できる ことを順伝播型NNに適用するとうまくいった。この方法は事前学習と呼ばれる。 ※1 多層構造をもつグラフィカルモデルで、 振る舞いは確率的に記述したもの。
6.
さらに自己符号化器による多層化も可能に。 多層NNは、層ごとに事前学習によって得たパラメータを初期値にすれば 学習がうまくいく、と分かった。 多層NNの性能が認められ、深層学習として注目されるように。 その深層学習にも再帰型NNやCNNなど、様々な方法論がある。 また、事前学習を使わない方法も開発されている。 そんな深層学習について、学習をはじめよう 1.研究の歴史
7.
2. 順伝播型ネットワーク
8.
「順伝播型ネットワーク」って? →人間の神経細胞をモデル化したユニットを重ねたりして構成した 一方向にだけ進むニューラルネットワーク。 何ができんの? →各ユニットの重みwを頑張って調整すれば最終的な出力を目標の関数に 近づけられる →「学習」ができる(今回は教師ありとする) →回帰・二値分類・クラス分類等、色んな問題が解ける 2章概要
9.
2. 順伝播型ネットワーク ・順伝播型ネットワーク (feedforward
neural network) 情報が入力側から出力側に一方向のみに伝播するNN。 多層パーセプトロンとも言う。 ニューロンのモデル化 𝑥1 𝑥2 𝑥3 入力 𝜔1 𝜔2 𝜔3 左図はマカロック・ピッツがニューロンを モデル化したもの。このニューロンの出力zは 重みづけした総入力にバイアス bを加えたものに 対応する活性化関数 f の値。 z 𝑧 = 𝑓 𝑢 𝑢 = 𝜔1 𝑥1 + 𝜔2 𝑥2 + 𝜔3 𝑥3 + b
10.
2. 順伝播型ネットワーク 順伝播型ネットワークでは、マカロックピッツモデルに似た (活性化関数がステップ関数に限らないという点で相違) ユニットを以下のように層状に結合させて構築する。 𝑥1 𝑥2 𝑥3 𝑥4 𝑧3 𝑧1 𝑧2𝑢2 𝑢1 𝑢3 𝑧𝑗 =
𝑓 𝑢𝑗 𝑢𝑗 = ∑ 𝜔𝑗𝑗 𝑥𝑖 𝐼 𝑖=1 + 𝑏𝑗 𝑥𝐼 𝑢𝐽 ⋯ ⋯ 行列とベクトルを用いて𝑢𝑗を以下のように 表記することも。 𝑢𝑗 = 𝐰 ∙ 𝒙 = 1 𝜔𝑗1 … 𝜔𝑗𝐼 𝑏𝑗 𝑥1 ⋮ 𝑥𝐼
11.
2. 順伝播型ネットワーク ・活性化関数 ユニットの持つ関数。様々なものが用いられる。 ・ロジスティックシグモイド関数、ロジスティック関数 𝑓 𝑥
= 1 1 + 𝑒−𝑥 ・双曲線正接関数 𝑓 𝑥 = tanh 𝑥 ※上記のような入力に対し出力が徐々に滑らかに変化する関数:シグモイド関数 ・正規化線形関数(rectified linear function) 𝑓 𝑥 = max(𝑥, 0)
12.
2. 順伝播型ネットワーク ・線形写像、恒等写像 𝑓 𝑥
= 𝑥 ・マックスアウト K個のユニットをまとめて1つしたように振る舞う活性化関数。 K個ずつそれぞれの重みとバイアスを持ち、K個の総入力が求められる。 そのユニットの出力はK個の総入力のうち最大のものを選ぶ。 𝑢𝑗𝑗 = � 𝜔𝑗𝑗𝑗 𝑧𝑖 + 𝑏𝑗𝑗 𝑖 𝑓 𝑢𝑗 = max 𝑢𝑗𝑗
13.
2. 順伝播型ネットワーク 以下のように層状に結合させた2層の(入力層をカウントしない)ネットワークを 考える ・多層化ネットワーク 𝑥1 𝑥2 𝑥3 𝑥4 𝑦1 𝑦2 𝑙 =
1 𝑙 = 2 𝑙 = 3 左から入力層、中間層(隠れ層)、出力層と 言う。 重みやバイアス、入出力をベクトルと行列で 表すと、以下のように汎化される。 また、最終層(L層)の出力を 𝐲 = 𝒛(𝐿) とする。 𝒖(𝑙+1) = 𝑾(𝑙+1) 𝒛(𝑙) + 𝒃(𝑙+1) 𝑾(2) 𝑾(3) 𝒛(𝑙+1) = 𝑓(𝒖(𝑙+1) ) 入 力 層 中 間 層 出 力 層
14.
2. 順伝播型ネットワーク すると、前ページの多層ネットワークは 𝐲 =
y(𝒙) と見ることができ、各パラメータを 𝒘 = 𝑾 1 , … , 𝑾 𝐿 , 𝒃 1 , … , 𝒃 𝐿 と まとめれば 𝐲 = y(𝒙; 𝒘) と表記できる。
15.
2. 順伝播型ネットワーク 前述の 𝐲
= y(𝒙; 𝒘) が目標とする関数に近づくようにパラメータを調整する ことを学習という。 ここでは、ある入力に対して望む出力のペアが複数与えられていると 仮定する。この入力 𝒙𝑖 と望ましい出力 𝒅𝑖 のペアを訓練サンプル、 その集合を訓練データと呼ぶ。 つまり、y 𝒙𝑖; 𝒘 ≈ 𝒅𝑖 となるようにパラメータを調整していく。 この時、望ましい出力とネットワークの出力の違い、誤差を測る尺度を 誤差関数と呼ぶ。 ・学習の概要 回帰・二値分類・クラス分類の3つの問題を解いてみよう
16.
2. 順伝播型ネットワーク 目標が、主に連続値を出力する関数である問題。 出力層の活性化関数が目標関数と同じ値域を取るように設計する。 誤差関数は二乗誤差 𝒅 −
𝑦(𝒙; 𝒘) 2 を使った 𝐸 𝒘 = 1 2 � 𝒅 𝑛 − 𝑦(𝒙 𝑛; 𝒘) 2 𝑁 𝑛=1 を用いるのが一般的。これを最小化するように w を学習させていく ※訓練データ数 𝑛 = 1,2, … , 𝑁 ・回帰
17.
2. 順伝播型ネットワーク 入力 x
を内容に応じて2種類に区別する問題。 ex. 写真から男性か女性かを判別する、など。 ここで、入力 x から分類 d ∈ 0,1 の値を推定することを考える。 そこで、入力 x のとき 𝑑 = 1 である確率 𝑝 𝑑 = 1 𝒙 をネットワークの 入出力関係でモデル化することを考える。 𝑝 𝑑 = 1 𝒙 ≈ 𝑦(𝒙; 𝒘) また、このネットワークの出力層は1つのユニットのみで構成されており、 活性化関数はロジスティック関数とする。 与えられた訓練データ (𝑥 𝑛, 𝑑 𝑛) |𝑛 = 1, … , 𝑁 からモデルを用いて 求められる事後分布 𝑝 𝑑 𝒙; 𝒘 がデータと一致するように学習していく。 ・二値分類
18.
2. 順伝播型ネットワーク 具体的には、パラメータ w
の訓練データに対する尤度を定義し、その値を 最大化するようなパラメータを求める最尤推定を行う。 w の尤度は 𝐿 𝒘 = � 𝑝(𝑑 𝑛|𝒙 𝑛; 𝒘) 𝑁 𝑛=1 と求められる。このとき、𝑝 𝑑 = 1 𝒙 ≈ 𝑦(𝒙; 𝒘) であり事後分布𝑝 𝑑 𝒙; 𝒘 はベルヌーイ分布で表せることから 𝑝 𝑑 𝒙; 𝒘 = 𝑝 𝑑 = 1 𝒙 𝑑 𝑝 𝑑 = 0 𝒙 1−𝑑 = 𝑦(𝒙; 𝒘) 𝑑 1 − 𝑦(𝒙; 𝒘) 1−𝑑 と求められる。
19.
前述の結果を尤度に代入する。 𝐿 𝒘 =
� 𝑦(𝒙 𝒏; 𝒘) 𝑑 𝑛 1 − 𝑦(𝒙 𝒏; 𝒘) 1−𝑑 𝑛 𝑁 𝑛=1 これの対数をとり、符号を反転させた 𝐸 𝒘 = − � 𝑑 𝑛log𝑦 𝒙 𝒏; 𝒘 + 1 − 𝑑 𝑛 log{1 − 𝑦 𝒙 𝒏; 𝒘 } 𝑁 𝑛=1 を誤差関数とし、この最小化(符号を反転したため)を求める ※対数関数の単調性から対数をとっても結果は変わらない。
20.
2. 順伝播型ネットワーク ある入力を内容に応じて有限個のクラスに分類する問題。 ex. 手書き数字の認識 まず、出力層に分類したいK個のクラス分のユニットを用意。 また、活性化関数には以下のソフトマックス関数を用いる。 𝑧
𝑘 (𝐿) = exp(𝑢 𝑘 𝐿 ) ∑ exp(𝑢𝑗 𝐿 )𝐾 𝑗=1 ※総和が1になることや負の値を取らないところが便利。 二値分類と同様にネットワークの出力を各クラス 𝐶 𝑘 の事後確率のモデルとして 扱う。 𝑝 𝐶 𝑘 𝒙 ≈ 𝑧 𝑘 (𝐿) ・クラス分類
21.
2. 順伝播型ネットワーク 訓練データは、入力 𝒙
𝑛 に対して目標 𝒅 𝑛 = 𝑑1, … , 𝑑 𝐾 の訓練サンプルの集合で、 入力 𝒙 𝑛 に対するクラスが 𝐶 𝑘 のとき 𝑑 𝑘 = 1 でそれ以外は0である。 このように目標を設定した時事後確率は 𝑝 𝒅 𝒙 = � 𝑝(𝐶 𝑘|𝒙) 𝑑 𝑘 𝐾 𝑘=1 と表せる。このことから、尤度は 𝐿 𝒘 = � � 𝑦 𝑘(𝒙 𝒏; 𝒘) 𝑑 𝑛𝑛 𝐾 𝑘=1 𝑁 𝑛=1 と求められ、誤差関数は同様に対数をとり符号を反転させて 𝐸 𝒘 = − � � 𝑑 𝑛𝑛log𝑦 𝑘 𝒙 𝒏; 𝒘 𝐾 𝑘=1 𝑁 𝑛=1 とする。この関数は交差エントロピーと呼ばれ、これを最小化するように学習していく。
Jetzt herunterladen