Suche senden
Hochladen
Extreme Learning Machine
•
8 gefällt mir
•
17,359 views
Yoshiaki Sakakura
Folgen
Melden
Teilen
Melden
Teilen
1 von 14
Jetzt herunterladen
Downloaden Sie, um offline zu lesen
Empfohlen
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models
Deep Learning JP
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
Taiji Suzuki
[DL Hacks]Variational Approaches For Auto-Encoding Generative Adversarial Ne...
[DL Hacks]Variational Approaches For Auto-Encoding Generative Adversarial Ne...
Deep Learning JP
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
gree_tech
【DL輪読会】A Path Towards Autonomous Machine Intelligence
【DL輪読会】A Path Towards Autonomous Machine Intelligence
Deep Learning JP
Iclr2016 vaeまとめ
Iclr2016 vaeまとめ
Deep Learning JP
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
Preferred Networks
Empfohlen
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models
Deep Learning JP
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
Taiji Suzuki
[DL Hacks]Variational Approaches For Auto-Encoding Generative Adversarial Ne...
[DL Hacks]Variational Approaches For Auto-Encoding Generative Adversarial Ne...
Deep Learning JP
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
gree_tech
【DL輪読会】A Path Towards Autonomous Machine Intelligence
【DL輪読会】A Path Towards Autonomous Machine Intelligence
Deep Learning JP
Iclr2016 vaeまとめ
Iclr2016 vaeまとめ
Deep Learning JP
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
Preferred Networks
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
tmtm otm
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
Preferred Networks
[DL輪読会]Recent Advances in Autoencoder-Based Representation Learning
[DL輪読会]Recent Advances in Autoencoder-Based Representation Learning
Deep Learning JP
深層学習の数理
深層学習の数理
Taiji Suzuki
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
Takuji Tahara
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
AGIRobots
MLP-Mixer: An all-MLP Architecture for Vision
MLP-Mixer: An all-MLP Architecture for Vision
harmonylab
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
Kaggleのテクニック
Kaggleのテクニック
Yasunori Ozaki
変分推論と Normalizing Flow
変分推論と Normalizing Flow
Akihiro Nitta
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
最適化計算の概要まとめ
最適化計算の概要まとめ
Yuichiro MInato
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習
Plot Hong
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
Taiji Suzuki
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
KCS Keio Computer Society
つくってドヤると楽しい
つくってドヤると楽しい
Junichi Akita
20150414seminar
20150414seminar
nlab_utokyo
Weitere ähnliche Inhalte
Was ist angesagt?
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
tmtm otm
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
Preferred Networks
[DL輪読会]Recent Advances in Autoencoder-Based Representation Learning
[DL輪読会]Recent Advances in Autoencoder-Based Representation Learning
Deep Learning JP
深層学習の数理
深層学習の数理
Taiji Suzuki
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
Takuji Tahara
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
AGIRobots
MLP-Mixer: An all-MLP Architecture for Vision
MLP-Mixer: An all-MLP Architecture for Vision
harmonylab
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
Kaggleのテクニック
Kaggleのテクニック
Yasunori Ozaki
変分推論と Normalizing Flow
変分推論と Normalizing Flow
Akihiro Nitta
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
最適化計算の概要まとめ
最適化計算の概要まとめ
Yuichiro MInato
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習
Plot Hong
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
Taiji Suzuki
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
KCS Keio Computer Society
Was ist angesagt?
(20)
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
[DL輪読会]Recent Advances in Autoencoder-Based Representation Learning
[DL輪読会]Recent Advances in Autoencoder-Based Representation Learning
深層学習の数理
深層学習の数理
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
MLP-Mixer: An all-MLP Architecture for Vision
MLP-Mixer: An all-MLP Architecture for Vision
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Kaggleのテクニック
Kaggleのテクニック
変分推論と Normalizing Flow
変分推論と Normalizing Flow
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
最適化計算の概要まとめ
最適化計算の概要まとめ
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
Ähnlich wie Extreme Learning Machine
つくってドヤると楽しい
つくってドヤると楽しい
Junichi Akita
20150414seminar
20150414seminar
nlab_utokyo
Scikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行う
Arata Honda
アナログ回路の民主化とプロの役割
アナログ回路の民主化とプロの役割
Junichi Akita
実社会・実環境におけるロボットの機械学習 ver. 2
実社会・実環境におけるロボットの機械学習 ver. 2
Kuniyuki Takahashi
Rtm・ros相互運用プログラミング環境
Rtm・ros相互運用プログラミング環境
openrtm
Japanese Wikipedia Ontology for WCJ2013
Japanese Wikipedia Ontology for WCJ2013
Susumu Tamagawa
Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~
nlab_utokyo
(Pythonで作って学ぶ) Youtube の動画リストを作るアプリの開発 第1回
(Pythonで作って学ぶ) Youtube の動画リストを作るアプリの開発 第1回
Project Samurai
TechWave塾第14期第4回
TechWave塾第14期第4回
Shigeru Kobayashi
道具としての半導体設計:Lチカを題材として
道具としての半導体設計:Lチカを題材として
Junichi Akita
ユーザ参加型センシングシステムの可能性
ユーザ参加型センシングシステムの可能性
Junichi Akita
Redmine Applied for Large Scale
Redmine Applied for Large Scale
Rakuten Group, Inc.
レコメンドアルゴリズムの基本と周辺知識と実装方法
レコメンドアルゴリズムの基本と周辺知識と実装方法
Takeshi Mikami
Soft neuro
Soft neuro
ssuser3a4b8c
道具としての「ハードウエア」
道具としての「ハードウエア」
Junichi Akita
Portable RT-Middleware environment on a USB memory for the robot programing ...
Portable RT-Middleware environment on a USB memory for the robot programing ...
s15mh218
電子回路の民主化とその実践
電子回路の民主化とその実践
Junichi Akita
0610 TECH & BRIDGE MEETING
0610 TECH & BRIDGE MEETING
健司 亀本
TFUG_yuma_matsuoka__distributed_GPU
TFUG_yuma_matsuoka__distributed_GPU
YumaMatsuoka
Ähnlich wie Extreme Learning Machine
(20)
つくってドヤると楽しい
つくってドヤると楽しい
20150414seminar
20150414seminar
Scikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行う
アナログ回路の民主化とプロの役割
アナログ回路の民主化とプロの役割
実社会・実環境におけるロボットの機械学習 ver. 2
実社会・実環境におけるロボットの機械学習 ver. 2
Rtm・ros相互運用プログラミング環境
Rtm・ros相互運用プログラミング環境
Japanese Wikipedia Ontology for WCJ2013
Japanese Wikipedia Ontology for WCJ2013
Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~
(Pythonで作って学ぶ) Youtube の動画リストを作るアプリの開発 第1回
(Pythonで作って学ぶ) Youtube の動画リストを作るアプリの開発 第1回
TechWave塾第14期第4回
TechWave塾第14期第4回
道具としての半導体設計:Lチカを題材として
道具としての半導体設計:Lチカを題材として
ユーザ参加型センシングシステムの可能性
ユーザ参加型センシングシステムの可能性
Redmine Applied for Large Scale
Redmine Applied for Large Scale
レコメンドアルゴリズムの基本と周辺知識と実装方法
レコメンドアルゴリズムの基本と周辺知識と実装方法
Soft neuro
Soft neuro
道具としての「ハードウエア」
道具としての「ハードウエア」
Portable RT-Middleware environment on a USB memory for the robot programing ...
Portable RT-Middleware environment on a USB memory for the robot programing ...
電子回路の民主化とその実践
電子回路の民主化とその実践
0610 TECH & BRIDGE MEETING
0610 TECH & BRIDGE MEETING
TFUG_yuma_matsuoka__distributed_GPU
TFUG_yuma_matsuoka__distributed_GPU
Extreme Learning Machine
1.
Extreme Learning Machine Yoshiaki Sakakura (@a2ki) 2013.04.17.社内教育資料 1DENSO IT Laboratory, INC.
2.
Extreme Learning Machine(ELM)とは • 学習が早く、ロバストなNeural Network – SinC関数 2DENSO IT Laboratory, INC. http://www.lia.deis.unibo.it/phd/materials/courses/Reti%20Neurali%20Teoria%20e%20Applicazioni/Fariselli2/ELM‐Workshop‐NUS.pdfより抜粋
3.
Extreme Learning Machine(ELM)とは • 学習が早く、ロバストなNeural Network – Real World Regression Problem 学習時間[sec] RMSE 3DENSO IT Laboratory, INC. http://www.lia.deis.unibo.it/phd/materials/courses/Reti%20Neurali%20Teoria%20e%20Applicazioni/Fariselli2/ELM‐Workshop‐NUS.pdfより抜粋 C実装より早い 著者は些末な問題だと言っている…。
4.
Extreme Learning Machine(ELM)とは • 学習が早く、ロバストなNeural Network – Real World Very Large Complex Application 4DENSO IT Laboratory, INC. http://www.lia.deis.unibo.it/phd/materials/courses/Reti%20Neurali%20Teoria%20e%20Applicazioni/Fariselli2/ELM‐Workshop‐NUS.pdfより抜粋
5.
目次 • NN と
ELM の比較 – Single Layer Feed‐forward Networks(SLFNs)を例に説明 • ELM の利点 – 学習速度とロバスト性以外にも 5DENSO IT Laboratory, INC.
6.
NN : モデル構成 1 d・・・ L1 i
・・・・・・ 出力層 隠れ層 入力層 出力層 Output , , 隠れ層 Output , ∈ ∈ , , 隠れ層 Output 活性化 関数 6DENSO IT Laboratory, INC.
7.
NN : 学習 , , argmax ,
, , ∈ 1, … , 入力 コスト関数 出力 (学習データ) 最適パラメータ 1 d・・・ L1 i ・・・・・・ 出力層 隠れ層 入力層 , ∈ ∈ 7DENSO IT Laboratory, INC.
8.
ELM : モデル構成 出力層 Output , , 隠れ層 Output , , 隠れ層 Output 活性化 関数1
d・・・ L1 i ・・・・・・ 出力層 隠れ層 入力層 , ∈ ∈ 8DENSO IT Laboratory, INC.
9.
ELM : 学習 , ∈ 1,
… ,学習データ 活性化関数 隠れノード数 Given STEP : 1 , 1, … , をランダムに生成 STEP : 2 隠れ層の出力行列 を生成 , , ⋯ , , ⋮ ⋱ ⋮ , , ⋯ , , STEP : 3 β の解 β を求める β , : 疑似逆行列 β ⋮⋮ 1 d・・・ L1 i ・・・・・・ 出力層 隠れ層 入力層 , ∈ ∈ 9DENSO IT Laboratory, INC. STEP : 4 STEP1,3で得られた , , 1, … , を 最適パラメータとする
10.
理論的後ろだて 【NN(SLFNs)による関数近似の性質】 十分大きなLをとれば、任意の関数を近似可能 【ELM(SLNFs)による関数近似の性質】 十分大きなL、有界・非定数・区分連続な活性化関をとれば、 ランダムに生成された(a,b)によって任意の関数を近似可能 (βは学習) 10DENSO IT Laboratory, INC. http://www.lia.deis.unibo.it/phd/materials/courses/Reti%20Neurali%20Teoria%20e%20Applicazioni/Fariselli2/ELM‐Workshop‐NUS.pdfより抜粋
11.
ELMの利点 • 学習がはやい – 疑似逆行列1発(イテレートがない) •
ロバストな解が求まる – 求めるパラメータが少ない • 最適解が求まる – だって、疑似逆行列1発 • 初期値に依存しない、Local Minimumが無い • 多様な活性化関数が利用できる – 有界、非定数、区分連続 • 微分できなくてもよい • 決定するパラメータが少ない – 隠れノード数Lだけ • 普通のNNは、隠れノード数Lに加え、学習率η、収束判定値ε – その後の研究では、0~Lの間で”最適な”ノード数を決定 11DENSO IT Laboratory, INC.
12.
ちなみに • v.s.Deep Learning(たぶんConvolutionなし?) DENSO IT Laboratory, INC.
12 http://www.ntu.edu.sg/home/egbhuang/pdf/ELM‐General.pdfより抜粋
13.
というわけで • みなさん、おためしあれ 13DENSO IT Laboratory, INC.
14.
参考資料 • Extreme Learning Machine ポータルサイト – http://www.ntu.edu.sg/home/egbhuang/ –
各論文、ソースコードあります • Workshop on Machine Learning for BioMedical Infomatics での講演資料 – http://www.lia.deis.unibo.it/phd/materials/courses/Reti%20Neurali%20Teoria%20e%20Applicazioni/ Fariselli2/ELM‐Workshop‐NUS.pdf • MS Researchでの講演資料 – http://research.microsoft.com/apps/video/dl.aspx?id=144113 – ビデオもあるよ • G.‐B. Huang, et al., “Universal Approximation Using Incremental Networks with Random Hidden Computational Nodes”, IEEE Transactions on Neural Networks, vol. 17, no. 4, pp. 879‐892, 2006. • G.‐B. Huang, et al., “Extreme Learning Machine: Theory and Applications,” Neurocomputing, vol. 70, pp. 489‐501, 2006. 14DENSO IT Laboratory, INC.
Jetzt herunterladen