SlideShare ist ein Scribd-Unternehmen logo
1 von 17
Gprah U-Net
• 新しいgraph上でのpooling,unpoolingを提案
• 提案されたpooling,unpoolingをU-netのようなエンコーダ・デコーダモデルに
適用
• Graph上でのpooling,unpoolingの操作不自然なものであったため,
グラフに対してU-netのようなエンコーダ・デコーダモデルが今までなかった
• ノード分類タスクに関する実験
• 今回は概要のみ
概要
なぜU-Netなのか
• U-netは局所的な空間情報を維持しながら高レベルの特徴を
符号化および復号化することができる
➡ピクセル単位の予測タスクで有能な性能を達成している
• ノード分類タスクは各入力ユニットの予測を行うことを目的としている
➡U-netをグラフに対して適用するのは効果があるのではないか
• 1-Dプーリング操作前にノードのインデックスを修正するグラフ粗化を行う
Defferrard(2016)
➡ 現在使用しているpooling操作
• 決定論的グラフクラスタリングアルゴリズムを使用して,
プーリングパターンを決定
Simonovsky&Komodakis(2017)
• 次の層の異なるクラスタにノードを割り当てることによって,
poolingを達成するために割り当て行列を使用
Ying(2018)
Graph上での3種類のpooling
Gprah U-Net
CNNで行っていたk-maxプーリング(Blunsom 2014)を
グラフ用に変更した
A Convolutional Neural Network for Modelling Sentences http://www.aclweb.org/anthology/P14-1062
Gprah U-Net
ノードの情報の行列に対して
射影ベクトルpとの行列積(p方向に射影)をとり正規化(y)
pは学習可能
Gprah U-Net
yの要素yiはノードiの情報量を保持するかどうかを示している
yの上位k個を探す
よってノード情報を考慮したpoolingを行っている
Gprah U-Net
Yの上位k個と同じ
ノードのノード情報をとってくる
Gprah U-Net
yの上位k個のtanh(y)とk個のノードの情報
の要素積をとる
この結果が次のグラフのノード情報になる
Gprah U-Net
隣接行列について(例)
①ノード4,2,5が選ばれたとき
1 2 3
4 5
1 2 3 4 5
1 0 1 0 1 0
2 1 0 1 1 1
3 0 1 0 0 1
4 0 1 0 0 0
5 1 1 1 0 0
隣接行列
2 4 5
2 0 1 1
4 1 0 0
5 1 0 0
2
4 5
Gprah U-Net
隣接行列について(例)
②ノード1,5が選ばれたとき
➡ノードの接続情報消失(ノードの分離)
1 2 3
4 5
1 2 3 4 5
1 0 1 0 1 0
2 1 0 1 1 1
3 0 1 0 0 1
4 1 1 0 0 0
5 0 1 1 0 0
隣接行列
1 5
1 0 0
5 0 0
1
5
Gprah U-Net
ノードの分離する問題
• プールされたグラフ内のノード間の接続を増やして対処
• k番目のgraph power 𝐺 𝑘
を使用してグラフの接続性を高める
• この操作は距離がkホップのノードの間で接続を構築する
例k=2の時
(SUBSAMPLING FOR GRAPH POWER SPECTRUM ESTIMATION https://arxiv.org/pdf/1603.03697.pdf)
1 2 3
4 5
1 2 3 4 5
1 0 1 0 1 0
2 1 0 1 1 1
3 0 1 0 0 1
4 1 1 0 0 0
5 0 1 1 0 0
隣接行列
1 5
1 2 1
5 1 2
1 2 3 4 5
1 2 1 1 1 1
2 1 4 1 1 1
3 1 1 2 1 1
4 1 1 1 2 1
5 1 1 1 1 2
1
5
Gprah U-Net
• 𝐴2の自己ループ部分は次数になっている
• スペクトルなGCNは隣接行列をそのまま使用するので
自己ループに値が入っても大丈夫
例k=2の時
(SUBSAMPLING FOR GRAPH POWER SPECTRUM ESTIMATION https://arxiv.org/pdf/1603.03697.pdf)
1 2 3
4 5
1 2 3 4 5
1 0 1 0 1 0
2 1 0 1 1 1
3 0 1 0 0 1
4 1 1 0 0 0
5 0 1 1 0 0
隣接行列
1 5
1 2 1
5 1 2
1 2 3 4 5
1 2 1 1 1 1
2 1 4 1 1 1
3 1 1 2 1 1
4 1 1 1 2 1
5 1 1 1 1 2
1
5
隣接行列について
• 隣接行列はgraph convolutionするときに𝐴 + 𝐼のように自己ループを加える
• 今回はノード自身の特徴が予測ベクトルにとって重要であるべき
➡ノード自身に高い重みを与えたい
• 𝐴 + 𝐼から𝐴 + 2𝐼に変更する
➡実験結果からもこちらのほうが良い
Unpoolingについて
• 対応するgraphPool層で選択されたノードの位置を記録し、
この情報を使用してノードをグラフの元の位置に戻す。
1 2 3
4 5
1 2 3 4 5
1 0 1 0 1 0
2 1 0 1 1 1
3 0 1 0 0 0
4 0 1 0 0 0
5 1 1 1 0 1
2 4 5
2 0 1 1
4 1 0 0
5 1 0 1
2
4 5
2 3 2 4
4 8 4 5
5 9 5 3
1 2 3
1 0 0 0
2 3 2 4
3 0 0 0
4 8 4 5
5 9 5 3
復元部分のノードの特徴は
すべて0にする
アーキテクチャ
• エンコーダ/デコーダともにGCNとg-pool(g-unpool)の層が4つで構成
• 各ブロックのノード数2000,1000,500,200
• すべての層にidentity activation functionを使用
• オーバーフィットを避けるために、λ= 0.001の重み付けでL 2正規化を適用
• ドロップアウトは、それぞれ0.8と0.08で隣接行列と特徴行列の両方に適用
実験
• ノード分類の精度の比較を行う
• 比較する既存モデルはノード分類においてstate of artなモデル
実験内容
• 精度比較
• スキップしてるだけでないことを確認
• 2nd graph powerを使用してグラフ接続性向上を伴うgPoolレイヤーの有効性
• G-U-netの深さ別精度比較
• パラメータに対するgPool/gUnpool層の有無における精度の比較

Weitere ähnliche Inhalte

Ähnlich wie Graph U-Net

Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Seiya Tokui
 
2012-03-08 MSS研究会
2012-03-08 MSS研究会2012-03-08 MSS研究会
2012-03-08 MSS研究会Kimikazu Kato
 
Weighted Blended Order Independent Transparency
Weighted Blended Order Independent TransparencyWeighted Blended Order Independent Transparency
Weighted Blended Order Independent Transparencyzokweiron
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational AutoencoderDeep Learning JP
 
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCHDeep Learning JP
 
CUDA1日(?)体験会
CUDA1日(?)体験会CUDA1日(?)体験会
CUDA1日(?)体験会RinKuriyama
 
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence LearningDeep Learning JP
 
第11回 配信講義 計算科学技術特論B(2022)
第11回 配信講義 計算科学技術特論B(2022)第11回 配信講義 計算科学技術特論B(2022)
第11回 配信講義 計算科学技術特論B(2022)RCCSRENKEI
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじsleepy_yoshi
 
深層ガウス過程に基づく音声合成におけるリカレント構造を用いた系列モデリングの検討
深層ガウス過程に基づく音声合成におけるリカレント構造を用いた系列モデリングの検討深層ガウス過程に基づく音声合成におけるリカレント構造を用いた系列モデリングの検討
深層ガウス過程に基づく音声合成におけるリカレント構造を用いた系列モデリングの検討Tomoki Koriyama
 
DeepLearningBook勉強会 6.2章
DeepLearningBook勉強会 6.2章DeepLearningBook勉強会 6.2章
DeepLearningBook勉強会 6.2章Masafumi Tsuyuki
 
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature FilterMorpho, Inc.
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksShingo Horiuchi
 
Volta は、Chainer で使えるの?
Volta は、Chainer で使えるの?Volta は、Chainer で使えるの?
Volta は、Chainer で使えるの?NVIDIA Japan
 
GN-Net: The Gauss-Newton Loss for Deep Direct SLAMの解説
GN-Net: The Gauss-Newton Loss for Deep Direct SLAMの解説GN-Net: The Gauss-Newton Loss for Deep Direct SLAMの解説
GN-Net: The Gauss-Newton Loss for Deep Direct SLAMの解説Masaya Kaneko
 
[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial NetworksDeep Learning JP
 
強化学習 DQNからPPOまで
強化学習 DQNからPPOまで強化学習 DQNからPPOまで
強化学習 DQNからPPOまでharmonylab
 
オーバーレイネットワークで実現するプライベートクラウド -OpenStack/OpenContrailを用いたプライベートクラウドの構築及び評価計画のご紹介-
オーバーレイネットワークで実現するプライベートクラウド -OpenStack/OpenContrailを用いたプライベートクラウドの構築及び評価計画のご紹介-オーバーレイネットワークで実現するプライベートクラウド -OpenStack/OpenContrailを用いたプライベートクラウドの構築及び評価計画のご紹介-
オーバーレイネットワークで実現するプライベートクラウド -OpenStack/OpenContrailを用いたプライベートクラウドの構築及び評価計画のご紹介-Takashi Sogabe
 
[DL輪読会]Learning to Navigate in Cities Without a Map
[DL輪読会]Learning to Navigate in Cities Without a Map[DL輪読会]Learning to Navigate in Cities Without a Map
[DL輪読会]Learning to Navigate in Cities Without a MapDeep Learning JP
 

Ähnlich wie Graph U-Net (20)

Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
 
2012-03-08 MSS研究会
2012-03-08 MSS研究会2012-03-08 MSS研究会
2012-03-08 MSS研究会
 
Weighted Blended Order Independent Transparency
Weighted Blended Order Independent TransparencyWeighted Blended Order Independent Transparency
Weighted Blended Order Independent Transparency
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
 
CUDA1日(?)体験会
CUDA1日(?)体験会CUDA1日(?)体験会
CUDA1日(?)体験会
 
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning
 
第11回 配信講義 計算科学技術特論B(2022)
第11回 配信講義 計算科学技術特論B(2022)第11回 配信講義 計算科学技術特論B(2022)
第11回 配信講義 計算科学技術特論B(2022)
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
 
深層ガウス過程に基づく音声合成におけるリカレント構造を用いた系列モデリングの検討
深層ガウス過程に基づく音声合成におけるリカレント構造を用いた系列モデリングの検討深層ガウス過程に基づく音声合成におけるリカレント構造を用いた系列モデリングの検討
深層ガウス過程に基づく音声合成におけるリカレント構造を用いた系列モデリングの検討
 
DeepLearningBook勉強会 6.2章
DeepLearningBook勉強会 6.2章DeepLearningBook勉強会 6.2章
DeepLearningBook勉強会 6.2章
 
Up to GLOW
Up to GLOWUp to GLOW
Up to GLOW
 
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
 
Volta は、Chainer で使えるの?
Volta は、Chainer で使えるの?Volta は、Chainer で使えるの?
Volta は、Chainer で使えるの?
 
GN-Net: The Gauss-Newton Loss for Deep Direct SLAMの解説
GN-Net: The Gauss-Newton Loss for Deep Direct SLAMの解説GN-Net: The Gauss-Newton Loss for Deep Direct SLAMの解説
GN-Net: The Gauss-Newton Loss for Deep Direct SLAMの解説
 
[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks
 
強化学習 DQNからPPOまで
強化学習 DQNからPPOまで強化学習 DQNからPPOまで
強化学習 DQNからPPOまで
 
オーバーレイネットワークで実現するプライベートクラウド -OpenStack/OpenContrailを用いたプライベートクラウドの構築及び評価計画のご紹介-
オーバーレイネットワークで実現するプライベートクラウド -OpenStack/OpenContrailを用いたプライベートクラウドの構築及び評価計画のご紹介-オーバーレイネットワークで実現するプライベートクラウド -OpenStack/OpenContrailを用いたプライベートクラウドの構築及び評価計画のご紹介-
オーバーレイネットワークで実現するプライベートクラウド -OpenStack/OpenContrailを用いたプライベートクラウドの構築及び評価計画のご紹介-
 
[DL輪読会]Learning to Navigate in Cities Without a Map
[DL輪読会]Learning to Navigate in Cities Without a Map[DL輪読会]Learning to Navigate in Cities Without a Map
[DL輪読会]Learning to Navigate in Cities Without a Map
 

Mehr von yukihiro domae

Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...yukihiro domae
 
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape AnalysisFeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysisyukihiro domae
 
Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...
Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...
Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...yukihiro domae
 
Learning Depthwise Separable Graph Convolution from Data Manifold
Learning Depthwise Separable Graph Convolution from Data ManifoldLearning Depthwise Separable Graph Convolution from Data Manifold
Learning Depthwise Separable Graph Convolution from Data Manifoldyukihiro domae
 
Texture-Aware Superpixel Segmentation
Texture-Aware Superpixel SegmentationTexture-Aware Superpixel Segmentation
Texture-Aware Superpixel Segmentationyukihiro domae
 
Superpixel Sampling Networks
Superpixel Sampling NetworksSuperpixel Sampling Networks
Superpixel Sampling Networksyukihiro domae
 
Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)yukihiro domae
 
Dynamic Routing Between Capsules
Dynamic Routing Between CapsulesDynamic Routing Between Capsules
Dynamic Routing Between Capsulesyukihiro domae
 

Mehr von yukihiro domae (9)

Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
 
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape AnalysisFeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
 
Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...
Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...
Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...
 
Learning Depthwise Separable Graph Convolution from Data Manifold
Learning Depthwise Separable Graph Convolution from Data ManifoldLearning Depthwise Separable Graph Convolution from Data Manifold
Learning Depthwise Separable Graph Convolution from Data Manifold
 
Texture-Aware Superpixel Segmentation
Texture-Aware Superpixel SegmentationTexture-Aware Superpixel Segmentation
Texture-Aware Superpixel Segmentation
 
Superpixel Sampling Networks
Superpixel Sampling NetworksSuperpixel Sampling Networks
Superpixel Sampling Networks
 
Graph LSTM解説
Graph LSTM解説Graph LSTM解説
Graph LSTM解説
 
Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)
 
Dynamic Routing Between Capsules
Dynamic Routing Between CapsulesDynamic Routing Between Capsules
Dynamic Routing Between Capsules
 

Graph U-Net

Hinweis der Redaktion

  1. GCNはは同じエポック数で約72秒
  2. GCNはは同じエポック数で約72秒
  3. k-maxプーリング層(Blunsom et al。、2014)は、各特徴マップのうちk番目に大きい単位を選択する
  4. GCNはは同じエポック数で約72秒
  5. GCNはは同じエポック数で約72秒
  6. GCNはは同じエポック数で約72秒
  7. GCNはは同じエポック数で約72秒
  8. GCNはは同じエポック数で約72秒
  9. GCNはは同じエポック数で約72秒
  10. GCNはは同じエポック数で約72秒
  11. GCNはは同じエポック数で約72秒
  12. GCNはは同じエポック数で約72秒
  13. GCNはは同じエポック数で約72秒
  14. GCNはは同じエポック数で約72秒
  15. GCNはは同じエポック数で約72秒
  16. GCNはは同じエポック数で約72秒