SlideShare a Scribd company logo
Suche senden
Hochladen
Einloggen
Registrieren
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Series Modeling and Forecasting.pptx
Melden
ARISE analytics
Folgen
ARISE analytics
31. Oct 2022
•
0 gefällt mir
•
528 views
1
von
18
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Series Modeling and Forecasting.pptx
31. Oct 2022
•
0 gefällt mir
•
528 views
Jetzt herunterladen
Downloaden Sie, um offline zu lesen
Melden
Technologie
社内で行った「International Conference on Learning Represantation (ICLR)2022読み会」でまとめた資料です。
ARISE analytics
Folgen
ARISE analytics
Recomendados
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
Deep Learning JP
8.9K views
•
26 Folien
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
2.5K views
•
34 Folien
変分推論と Normalizing Flow
Akihiro Nitta
5.4K views
•
33 Folien
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
1.8K views
•
22 Folien
猫でも分かるVariational AutoEncoder
Sho Tatsuno
130.9K views
•
51 Folien
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
Deep Learning JP
7.7K views
•
26 Folien
Más contenido relacionado
Was ist angesagt?
機械学習モデルの判断根拠の説明
Satoshi Hara
96.7K views
•
110 Folien
[DL輪読会]Attention Is All You Need
Deep Learning JP
18K views
•
16 Folien
ELBO型VAEのダメなところ
KCS Keio Computer Society
2.5K views
•
12 Folien
GAN(と強化学習との関係)
Masahiro Suzuki
82K views
•
77 Folien
PRML学習者から入る深層生成モデル入門
tmtm otm
5.6K views
•
73 Folien
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Preferred Networks
916 views
•
36 Folien
Was ist angesagt?
(20)
機械学習モデルの判断根拠の説明
Satoshi Hara
•
96.7K views
[DL輪読会]Attention Is All You Need
Deep Learning JP
•
18K views
ELBO型VAEのダメなところ
KCS Keio Computer Society
•
2.5K views
GAN(と強化学習との関係)
Masahiro Suzuki
•
82K views
PRML学習者から入る深層生成モデル入門
tmtm otm
•
5.6K views
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Preferred Networks
•
916 views
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
Deep Learning JP
•
1.2K views
Transformerを雰囲気で理解する
AtsukiYamaguchi1
•
4.7K views
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
•
7.4K views
敵対的生成ネットワーク(GAN)
cvpaper. challenge
•
93.9K views
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
•
5.3K views
Group normalization
Ryutaro Yamauchi
•
3.7K views
深層生成モデルを用いたマルチモーダル学習
Masahiro Suzuki
•
9.4K views
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
Deep Learning JP
•
3.6K views
Transformerを多層にする際の勾配消失問題と解決法について
Sho Takase
•
4.4K views
実装レベルで学ぶVQVAE
ぱんいち すみもと
•
12.3K views
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII
•
2.1K views
KDD Cup 2021 時系列異常検知コンペ 参加報告
GentaYoshimura
•
1.2K views
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
•
6.9K views
モデルではなく、データセットを蒸留する
Takahiro Kubo
•
7.7K views
Similar a 【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Series Modeling and Forecasting.pptx
CNTK deep dive
Kyoichi Iwasaki
302 views
•
62 Folien
スマートエスイーセミナー:機外学習応用システムパターンの例
HironoriTAKEUCHI1
1.6K views
•
18 Folien
バージョンアップした「ReNomIMG」の紹介
ReNom User Group
304 views
•
16 Folien
Supervised Machine Learning of Elastic Stack
Hiroshi Yoshioka
311 views
•
16 Folien
TERAS Conference
Keiju Anada
1.8K views
•
23 Folien
Einsteinvision - object detection を試してみよう
Salesforce Developers Japan
1.8K views
•
42 Folien
Similar a 【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Series Modeling and Forecasting.pptx
(20)
CNTK deep dive
Kyoichi Iwasaki
•
302 views
スマートエスイーセミナー:機外学習応用システムパターンの例
HironoriTAKEUCHI1
•
1.6K views
バージョンアップした「ReNomIMG」の紹介
ReNom User Group
•
304 views
Supervised Machine Learning of Elastic Stack
Hiroshi Yoshioka
•
311 views
TERAS Conference
Keiju Anada
•
1.8K views
Einsteinvision - object detection を試してみよう
Salesforce Developers Japan
•
1.8K views
Rancher meetupdeepdive#01 LT
Mikihisa HAYASHI
•
119 views
ドライブレコーダの動画を使った道路情報の自動差分抽出
Tetsutaro Watanabe
•
5.2K views
IoT/ロボティクス時代のモニタリングとコントロール 15分バージョン
Masahiro Takechi
•
203 views
サイバーセキュリティ錬金術
Isao Takaesu
•
1.4K views
なぜ自社で脆弱性診断を行うべきなのか
Sen Ueno
•
15.6K views
ビッグデータ革命 クラウドがコモデティ化する「奇跡」
Atsushi Nakada
•
3.4K views
Iot safety and security
Kiyoshi Ogawa
•
583 views
About SCORER
Satoshi Toriumi
•
662 views
How Much Position Information Do Convolutional Neural Networks Encode?
Kazuyuki Miyazawa
•
2.3K views
Qiita x Microsoft - 機械学習セミナー Microsoft AI Platform
Daiyu Hatakeyama
•
4K views
ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTURE Project
•
356 views
Towards Total Recall in Industrial Anomaly Detection
harmonylab
•
1.1K views
Elastic Cloudを利用したセキュリティ監視の事例
Elasticsearch
•
947 views
セキュリティオペレーション自動化に向けた、基盤技術と共通インターフェースの構築 [ISOC-JP workshop, 2016/05/20]
Takeshi Takahashi
•
925 views
Más de ARISE analytics
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho...
ARISE analytics
153 views
•
32 Folien
Hierarchical Metadata-Aware Document Categorization under Weak Supervision (...
ARISE analytics
112 views
•
24 Folien
教師なしGNNによるIoTデバイスの異常通信検知の検討
ARISE analytics
814 views
•
21 Folien
【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D...
ARISE analytics
434 views
•
17 Folien
【論文読み会】Autoregressive Diffusion Models.pptx
ARISE analytics
5.1K views
•
27 Folien
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx
ARISE analytics
484 views
•
29 Folien
Más de ARISE analytics
(16)
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho...
ARISE analytics
•
153 views
Hierarchical Metadata-Aware Document Categorization under Weak Supervision (...
ARISE analytics
•
112 views
教師なしGNNによるIoTデバイスの異常通信検知の検討
ARISE analytics
•
814 views
【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D...
ARISE analytics
•
434 views
【論文読み会】Autoregressive Diffusion Models.pptx
ARISE analytics
•
5.1K views
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx
ARISE analytics
•
484 views
【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx
ARISE analytics
•
454 views
【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice
ARISE analytics
•
667 views
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
ARISE analytics
•
2.4K views
【論文読み会】On the Expressivity of Markov Reward
ARISE analytics
•
553 views
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...
ARISE analytics
•
648 views
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
ARISE analytics
•
643 views
Counterfaual Machine Learning(CFML)のサーベイ
ARISE analytics
•
27.2K views
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
ARISE analytics
•
7.7K views
【論文読み会】Self-Attention Generative Adversarial Networks
ARISE analytics
•
5.2K views
【論文読み会】Universal Language Model Fine-tuning for Text Classification
ARISE analytics
•
1.9K views
Último
松下研究室紹介_関西大学高槻キャンパスオープンキャンパス
Matsushita Laboratory
26 views
•
23 Folien
テスト自動化.pdf
ssuserf8ea02
16 views
•
26 Folien
gtk4_gem_usage.pdf
ssuser0ef4681
11 views
•
6 Folien
遠隔お酌IoTLT2309.pptx
Yoshiaki Ito
57 views
•
12 Folien
CCoE実践者コミュニティ#1_CCoEが進めるセキュリティカイゼンの旅.pptx
Tomoaki Tada
25 views
•
20 Folien
20230921_IoTLT_vol103_kitazaki_v1.pdf
Ayachika Kitazaki
81 views
•
16 Folien
Último
(8)
松下研究室紹介_関西大学高槻キャンパスオープンキャンパス
Matsushita Laboratory
•
26 views
テスト自動化.pdf
ssuserf8ea02
•
16 views
gtk4_gem_usage.pdf
ssuser0ef4681
•
11 views
遠隔お酌IoTLT2309.pptx
Yoshiaki Ito
•
57 views
CCoE実践者コミュニティ#1_CCoEが進めるセキュリティカイゼンの旅.pptx
Tomoaki Tada
•
25 views
20230921_IoTLT_vol103_kitazaki_v1.pdf
Ayachika Kitazaki
•
81 views
GraphQLはどんな時に使うか
Yutaka Tachibana
•
6 views
IGDA Japan SIG Audio #20-1 室内・野外でのマイク収録と整音.pdf
IGDA Japan SIG-Audio
•
97 views
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Series Modeling and Forecasting.pptx
1.
ICLR論文読み会 株式会社ARISE analytics Akimoto Yusuke ©2022
ARISE analytics Reserved. 2022.07.08
2.
Contents ©2022 ARISE analytics
Reserved. 1 1 自己紹介 2 論文概要紹介 3 Transformerのおさらい 4 Pyraformer
3.
1. 自己紹介 ©2022 ARISE
analytics Reserved. 1 自己紹介 2 論文概要紹介 3 Transformerのおさらい 4 Pyraformer
4.
はじめまして ©2022 ARISE analytics
Reserved. 3 秋元 裕介 Yu s u ke A k i m o t o 担当領域 スキル プロジェクト・取組 A R I S E a n a l y t i c s 画像解析 自然言語処理 トラフィック・時系列・グラフ異常検知 非構造データ解析(画像解析,自然言語処理 etc.) 非構造データ分析アーキテクチャ(AWS, Edge Device) 複数台カメラによる同一人物判定 画像処理による工場内での危険物検知 車両通信の異常検知モデル構築 生成系機械読解
5.
2. 論文概要紹介 ©2022 ARISE
analytics Reserved. 1 自己紹介 2 論文概要紹介 3 Transformerのおさらい 4 Pyraformer
6.
PYRAFORMER ©2022 ARISE analytics
Reserved. 5 画像出典:https://www.salesanalytics.co.jp/column/no00214/より Pyraformer: Low-Complexity Pyramidal Attention for Long-Range Time Series Modeling And Forcasting Shizhan Liu, Hang Yu, Cong Liao, Jianguo Li, Weiyao Lin, Alex X. Liu, Schahram Dustdar Implementation: https://github.com/alipay/Pyraformer
7.
PYRAFORMER ©2022 ARISE analytics
Reserved. 6 Transformer(Attention機構)を一般化 時系列予測に対して,複数の時間解像度でピラミッド型 のグラフを構築することにより予測精度を向上させた 学習時間・モデルサイズ・メモリ使用量を圧倒的に削減
8.
3. Transformer ©2022 ARISE
analytics Reserved. 1 自己紹介 2 論文概要紹介 3 Transformerのおさらい 4 Pyraformer
9.
Transformer ©2022 ARISE analytics
Reserved. 8 画像出典:https://hips.hearstapps.com/digitalspyuk.cdnds.net/17/25/1498134404-transformers-dark-of-the-moon-bumblebee-poster.jpg Attention Is All You Need Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin
10.
Transformer(Attention) ©2022 ARISE analytics
Reserved. 9 Self−Attention 𝑄, 𝐾, 𝑉 = Softmax 𝑄𝐾𝑇 𝑑𝑘 𝑉 𝑤ℎ𝑒𝑟𝑒 𝑄 = 𝑞1, … , 𝑞𝑛 𝑇 ∈ ℝ𝑛×𝑑𝑘 𝐾 = 𝑘1, … , 𝑘𝑛 𝑇 ∈ ℝ𝑛×𝑑𝑘 𝑉 = 𝑣1, … , 𝑣𝑛 𝑇 ∈ ℝ𝑛×𝑑𝑘
11.
3. Pyraformer ©2022 ARISE
analytics Reserved. 1 自己紹介 2 論文概要紹介 3 Transformerのおさらい 4 Pyraformer
12.
PYRAFORMER ©2022 ARISE analytics
Reserved. 11
13.
PYRAFORMER ©2022 ARISE analytics
Reserved. 12 PAM (Pyramidal Attention Module) Pyraformerのコアモジュールで複数解像度の時系列のデータを含む𝐶分木を入力として受け取ってAttentionを計算 ピラミッド内のあるノードの 上下左右のノードを凝集し てAttentionするイメージ Denotes: 𝑛𝑙 𝑠 : 𝑙−th node at scale 𝑠 𝐶: number of children 𝑠 = 1 … 𝑆: scale from bottom to top
14.
PYRAFORMER ©2022 ARISE analytics
Reserved. 13 CSCM (Coarser-scale construction module) 入力の時系列データからConvolutionを組み合わせて 𝐶 分木構造を生成するモジュール 𝐵 : 𝑏𝑎𝑡𝑐ℎ 𝑠𝑖𝑧𝑒 𝐷 : 𝑑𝑖𝑚𝑒𝑛𝑡𝑖𝑜𝑛 𝑜𝑓 𝑎 𝑛𝑜𝑑𝑒 ⇩ 長さ𝐿/𝐶𝑠 の時系列データ 下から上に向 かって解像度を 下げていきます
15.
PYRAFORMER ©2022 ARISE analytics
Reserved. 14 実験設定と実験結果 Wind,App Flow,Electricity,ETTの4つのデータセットを使って評価を実施 評価指標はNRMSE(Normalized RMSE)とND(Normalized Deviation) 比較対象のモデルとしてFull-Attention,LogTrans,Reformer,ETC,Longformerを実験
16.
PYRAFORMER ©2022 ARISE analytics
Reserved. 15 実験設定と実験結果 Pytransformerが軒並み既存手法 の精度を上回っている 既存手法に比べて,𝐶分木のグラフ 構造が時系列の情報をうまくとらえて いることが示唆される PytransformerはQ-Kのペア数が最 も少ない ⇨ 計算速度とメモリ効率が良い CSCMの影響でパラメータ数に関して はPytransformerが少し多くなってい るが,一方でモデルはとても軽量
17.
PYRAFORMER ©2022 ARISE analytics
Reserved. 16 実験設定と実験結果
18.
Best Partner for
innovation, Best Creator for the future.