SlideShare ist ein Scribd-Unternehmen logo
1 von 71
Downloaden Sie, um offline zu lesen
Machine Learning on Graph Data
@ ICML 2019
亀澤諒亮 / DeNA
ICLR’19 / ICML’19 読み会 @DeNA
Words in Title @ ICML’19
3
Words in Title @ ICML’17-‘19
4
2018 20192017
Words in Title @ ICML’17-‘19
5
2018 20192017
Graph ML @ ICML 2019
6
Graph ML @ ICML 2019
グラフデータを扱った論文はおよそ30本 (ICML’18ではおよそ15本)

様々なタスクや手法をグラフに対しても適用できるように拡張したものが多い

● Adversarial attacks
● Disentanglement
● Similarity measure
● Self attention, etc.
ニューラルネットワーク以外のアルゴリズムでグラフを扱うものも

● Graph feature (kernel) / Gaussian process
応用

● 回路設計の最適化

● 楽譜からの演奏生成



7
Outline
- Graph ML @ ICML 2019
- グラフについて
- 論文紹介
- A Persistent Weisfeiler–Lehman Procedure for Graph Classification
- Bastian Rieck, Christian Bock, Karsten Borgwardt / ETH Zurich
- Adversarial Attacks on Node Embeddings via Graph Poisoning
- Aleksandar Bojchevski, Stephan Günnemann / Technical University of Munich
- Simplifying Graph Convolutional Networks
- Felix Wu, Tianyi Zhang, Amauri Holanda de Souza Jr., Christopher Fifty, Tao Yu / Cornell
- Position-aware Graph Neural Networks
- Jiaxuan You, Rex Ying, Jure Leskovec / Stanford
8
Graph
- 頂点(node, vertex)と辺(link, edge)からなるデータ構造

- 今回紹介するものは

- 基本的に無向グラフ(辺の向きは考えない)

- 各頂点が特徴ベクトルをもつ場合が多い



- 具体的には隣接行列として表現

- 隣接行列



- 例

- Web

- SNSネットワーク

- 引用ネットワーク

9
- タンパク質ネットワーク

- 分子構造

- etc.

A Persistent Weisfeiler-Lehman Procedure
for Graph Classification
Bastian Rieck, Christian Bock, Karsten Borgwardt / ETH Zurich
10
http://proceedings.mlr.press/v97/rieck19a/rieck19a.pdf
Abstract
グラフ全体に対する特徴ベクトルを計算する手法を提案

- WL Subtree [Shervashidze+, ‘11] は局所的な情報しか捉えない

→ 閉路の情報を明示的に扱えるように拡張

- 既存のGraph Feature/Kernel に比べて性能向上

11
http://proceedings.mlr.press/v97/rieck19a/rieck19a.pdf
Weisfeiler-Lehman Subtree (WL Subtree) [Shervashidze+, ‘11]
12
http://www.jmlr.org/papers/volume12/shervashidze11a/shervashidze11a.pdf
Weisfeiler-Lehman Subtree (WL Subtree) [Shervashidze+, ‘11]
13
http://www.jmlr.org/papers/volume12/shervashidze11a/shervashidze11a.pdf
隣接するラベルを集める
Weisfeiler-Lehman Subtree (WL Subtree) [Shervashidze+, ‘11]
14
http://www.jmlr.org/papers/volume12/shervashidze11a/shervashidze11a.pdf
ラベル圧縮
Weisfeiler-Lehman Subtree (WL Subtree) [Shervashidze+, ‘11]
15
http://www.jmlr.org/papers/volume12/shervashidze11a/shervashidze11a.pdf
ラベルを更新
Weisfeiler-Lehman Subtree (WL Subtree) [Shervashidze+, ‘11]
16
http://www.jmlr.org/papers/volume12/shervashidze11a/shervashidze11a.pdf
戻って繰り返す
Weisfeiler-Lehman Subtree (WL Subtree) [Shervashidze+, ‘11]
17
http://www.jmlr.org/papers/volume12/shervashidze11a/shervashidze11a.pdf
ラベルの出現頻度をベクトル化
Weisfeiler-Lehman Subtree (WL Subtree) [Shervashidze+, ‘11]
18
http://www.jmlr.org/papers/volume12/shervashidze11a/shervashidze11a.pdf
WL subtree では全体的な構造に関する情報は含まれない
グラフの変化で構造(連結成分, 閉路, etc.) がどう変わるか?

- 辺の重みによってグラフを整列









バーコード



Persistent Homology
19
※Persistent homology における一般的な定義とは異なる https://www.math.upenn.edu/~ghrist/preprints/barcodes.pdf
連結成分の寿命

CC persistence
閉路の寿命

cycle persistence
グラフの変化で構造(連結成分, 閉路, etc.) がどう変わるか?

- 辺の重みによってグラフを整列









バーコード



Persistent Homology
20
※Persistent homology における一般的な定義とは異なる https://www.math.upenn.edu/~ghrist/preprints/barcodes.pdf
連結成分の寿命

CC persistence
閉路の寿命

cycle persistence
グラフの変化で構造(連結成分, 閉路, etc.) がどう変わるか?

- 辺の重みによってグラフを整列









バーコード



Persistent Homology
21
※Persistent homology における一般的な定義とは異なる https://www.math.upenn.edu/~ghrist/preprints/barcodes.pdf
連結成分の寿命

CC persistence
閉路の寿命

cycle persistence
グラフの変化で構造(連結成分, 閉路, etc.) がどう変わるか?

- 辺の重みによってグラフを整列









バーコード



Persistent Homology
22
※Persistent homology における一般的な定義とは異なる https://www.math.upenn.edu/~ghrist/preprints/barcodes.pdf
連結成分の寿命

CC persistence
閉路の寿命

cycle persistence
グラフの変化で構造(連結成分, 閉路, etc.) がどう変わるか?

- 辺の重みによってグラフを整列









バーコード



Persistent Homology
23
※Persistent homology における一般的な定義とは異なる https://www.math.upenn.edu/~ghrist/preprints/barcodes.pdf
連結成分の寿命

CC persistence
閉路の寿命

cycle persistence
グラフの変化で構造(連結成分, 閉路, etc.) がどう変わるか?

- 辺の重みによってグラフを整列









バーコード



Persistent Homology
24
※Persistent homology における一般的な定義とは異なる https://www.math.upenn.edu/~ghrist/preprints/barcodes.pdf
連結成分の寿命

CC persistence
閉路の寿命

cycle persistence
Persistent Homology
グラフの変化で構造(連結成分, 閉路, etc.) がどう変わるか?

- 辺の重みによってグラフを整列









バーコード



25
※Persistent homology における一般的な定義とは異なる https://www.math.upenn.edu/~ghrist/preprints/barcodes.pdf
連結成分の寿命

CC persistence
閉路の寿命

cycle persistence
Algorithm: Persistent subtree feature
グラフ G=(V, E), 反復数 H
Loop h = 1, …, H-1
隣接するラベルを集約

辺の重み、PHを計算

ラベル圧縮

連結成分特徴



閉路特徴





26
http://www.jmlr.org/papers/volume12/shervashidze11a/shervashidze11a.pdf
Algorithm: Persistent subtree feature
27
http://www.jmlr.org/papers/volume12/shervashidze11a/shervashidze11a.pdf
グラフ G=(V, E), 反復数 H
Loop h = 1, …, H-1
隣接するラベルを集約

辺の重み、PHを計算

ラベル圧縮

連結成分特徴



閉路特徴





Algorithm: Persistent subtree feature
28
http://www.jmlr.org/papers/volume12/shervashidze11a/shervashidze11a.pdf
グラフ G=(V, E), 反復数 H
Loop h = 1, …, H-1
隣接するラベルを集約

辺の重み、PHを計算

ラベル圧縮

連結成分特徴



閉路特徴





グラフ G=(V, E), 反復数 H
Loop h = 1, …, H-1
隣接するラベルを集約

辺の重み、PHを計算

ラベル圧縮

連結成分特徴



閉路特徴





Algorithm: Persistent subtree feature
29
http://www.jmlr.org/papers/volume12/shervashidze11a/shervashidze11a.pdf
ラベル li
に対応するCC persistence の和
Algorithm: Persistent subtree feature
30
グラフ G=(V, E), 反復数 H
Loop h = 1, …, H-1
隣接するラベルを集約

辺の重み、PHを計算

ラベル圧縮

連結成分特徴



閉路特徴





http://www.jmlr.org/papers/volume12/shervashidze11a/shervashidze11a.pdf
両辺どちらかの頂点のラベルが li
である
cycle persistence の和
Experiments
Benchmark datasets (classification)
- Graph feature / kernel の既存手法に比べて性能向上
31
http://proceedings.mlr.press/v97/rieck19a/rieck19a.pdf
Summary
Weisfeiler-Lehman subtree は明示的にトポロジカルな特徴を扱わない



Persistent Weisfeiler-Lehman Procedure を提案

- 明示的に閉路の情報を考慮

- Persistent homology による表現を利用



Graph feature / kernel の既存手法に比べて性能向上

32
Adversarial Attacks on Node Embeddings
via Graph Poisoning
Aleksandar Bojchevski, Stephan Günnemann / Technical University of Munich
33
http://proceedings.mlr.press/v97/bojchevski19a/bojchevski19a.pdf
Abstract
- DeepWalk(教師なしノード埋め込み)への攻撃を提案

- 攻撃:グラフの辺の反転

- 従来法[Zügner+, ICLR’19][Zügner+, KDD’18]は半教師あり学習に対する攻撃



- 反転すべき辺を効率的に見つけるアルゴリズムを提案



- 半教師あり学習でも攻撃によって性能劣化



- 攻撃に用いたグラフはDeepWalk以外にも転用可能

34
DeepWalk [Perozzi+, KDD’14]
ノード埋め込みを計算する手法

- サンプルされたrandom walk 上での skip-gram
- Random walkを文、ノードを単語とみなす

- Skip-gramによってノード(単語)の埋め込みを計算

実は特異値分解として解ける

35
http://proceedings.mlr.press/v97/bojchevski19a/bojchevski19a.pdf
Attack model
ノード埋め込みの目的関数に関する2段階の最適化











36
Attack model
ノード埋め込みの目的関数に関する2段階の最適化











37
隣接行列に対する制約
Attack model
ノード埋め込みの目的関数に関する2段階の最適化











38
攻撃に対する制約
Attack model
ノード埋め込みの目的関数に関する2段階の最適化











39
最適な埋め込みの計算
Attack model
ノード埋め込みの目的関数に関する2段階の最適化











40
損失を最大化する
隣接行列の計算
Attack model
ノード埋め込みの目的関数に関する2段階の最適化









DeepWalkの特異値分解としての解を使うことで

内側の最適化(Zに関する損失の最小化)は閉じた形で求められる







41
Attack model
ノード埋め込みの目的関数に関する2段階の最適化









DeepWalkの特異値分解としての解を使うことで

内側の最適化(Zに関する損失の最小化)は閉じた形で求められる





このままでは外側の最適化は非効率

→ 目的関数を近似

42
Approximation
- 勾配法

- 特異値分解のためにナイーブには勾配を計算できない

- Eigenvalue perturbationによって近似

- 隣接行列の変化量は ±1のため誤差も大きくなる

- 計算量 







43
Approximation
- 勾配法

- 特異値分解のためにナイーブには勾配を計算できない

- Eigenvalue perturbationによって近似

- 隣接行列の変化量は ±1のため誤差も大きくなる

- 計算量 



- 貪欲法

- 辺を反転した場合の損失の変化量を効率的に計算できるように近似

- 辺の追加

- 候補となる頂点対をサンプリングし、最適な辺を選択

- 辺の削除

- 存在する辺の中から最適な辺を選択





44
Experiments
45
http://proceedings.mlr.press/v97/bojchevski19a/bojchevski19a.pdf
勾配法 貪欲法
横軸+ 辺の追加
横軸 - 辺の削除
Experiments
46
http://proceedings.mlr.press/v97/bojchevski19a/bojchevski19a.pdf
転用可能性: DeepWalk以外のアルゴリズムでも性能劣化

Summary
47
ノード埋め込みに対する攻撃を定式化、効率的なアルゴリズムを提案



ノード埋め込みとそれに依存したタスク(ノード分類、リンク予測)でも性能劣化



辺を反転する攻撃は他のアルゴリズム(node2vec, GCN, etc.)に対しても有効



このような攻撃に対して頑健なアルゴリズムが必要

Simplifying Graph Convolutional Networks
Felix Wu, Tianyi Zhang, Amauri Holanda de Souza Jr., Christopher Fifty, Tao Yu / Cornell
48
http://proceedings.mlr.press/v97/wu19e/wu19e.pdf
Abstract
- Graph Convolutional Network (GCN) [Kipf+, ICLR’17] を単純化したモデルでも

ノード分類において大きな性能低下が見られないことを確認

● Simple Graph Convolution (SGC)


- SGCがグラフスペクトル上のローパスフィルタであることを指摘





49
http://proceedings.mlr.press/v97/wu19e/wu19e.pdf
Graph Convolutional Network [Kipf+, ICLR’17]












正規化隣接行列

50
http://proceedings.mlr.press/v97/wu19e/wu19e.pdf
(次数行列)
Simple Graph Convolution (SGC)














GCNの活性化関数(ReLU)を除くことで単純化

特徴量の伝播は単純な行列積に帰着

51
http://proceedings.mlr.press/v97/wu19e/wu19e.pdf
Experiments
SGCと他のモデルで大きな変化は見られない

52
http://proceedings.mlr.press/v97/wu19e/wu19e.pdf
👍 特徴伝播
🤔 非線形性
Graph Signal Processing
正規化グラフラプラシアン 

ノード上の値(信号)

グラフフーリエ変換

逆グラフフーリエ変換













53
http://web.media.mit.edu/~xdong/presentation/CDT_GuestLecture_GSP.pdf
(固有値(周波数)小) (固有値(周波数)大)
固有値分解
グラフ上の固有ベクトル [Shuman+, ’13]
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.367.6064&rep=rep1&type=pdf
Low-pass Filter Effect
グラフフィルター(畳み込み)

SGCの場合

54
http://proceedings.mlr.press/v97/wu19e/wu19e.pdf
各周波数成分にかかる係数
Summary
GCNの非線形層を取り除くことで単純化したモデルSGCを提案

- 実験的に大きな性能劣化が見られないことを確認

- GCNにおいて特徴伝播は有効だが、非線形性はあまり有効ではないことを示唆



SGCにおける畳み込みはグラフスペクトル上のローパスフィルタであることを指摘

- 多くのGNNはローパスフィルタと同等の性能





55
Position-aware Graph Neural Networks
Jiaxuan You, Rex Ying, Jure Leskovec / Stanford
56
http://proceedings.mlr.press/v97/you19b/you19b.pdf
Abstract
従来のGNNだとノード埋め込みをした際に

同じ局所構造をもつノードを区別できないことを指摘



同じ局所構造であっても区別できるアーキテクチャを提案

- P-GNN


実験的に既存法を上回る性能

- Link prediction
- Pairwise node classification
57
http://proceedings.mlr.press/v97/you19b/you19b.pdf
Motivation
既存のGNN(e.g. GCN)では同じ局所構造を持ったノードを区別できない

















→ 基準となるノードの集合 Anchor-setを設定し、そこから距離を考慮した特徴伝播を行う

58
http://proceedings.mlr.press/v97/you19b/you19b.pdf
Algorithm: P-GNN
1. Anchor-set S1
, ... ,Sk
のサンプリング

2. 頂点v とAnchor-set Si
に対してメッセージMv
[i] を計算



3. Mv
から出力ベクトルと次の層の入力ベクトルを計算













59
http://proceedings.mlr.press/v97/you19b/you19b.pdf
Algorithm: P-GNN
60
http://proceedings.mlr.press/v97/you19b/you19b.pdf
1. Anchor-set S1
, ... ,Sk
のサンプリング

2. 頂点v とAnchor-set Si
に対してメッセージMv
[i] を計算



3. Mv
から出力ベクトルと次の層の入力ベクトルを計算













Algorithm: P-GNN
61
http://proceedings.mlr.press/v97/you19b/you19b.pdf
1. Anchor-set S1
, ... ,Sk
のサンプリング

2. 頂点v とAnchor-set Si
に対してメッセージMv
[i] を計算



3. Mv
から出力ベクトルと次の層の入力ベクトルを計算













Anchor-Set
距離空間





Bourgain Theorem [Bourgain, 1985]
距離空間





具体的構成

Anchor-set Si,j
は各頂点を確率1/2i
で独立にサンプリング



62
のdistortionが である
 ⇔ 

に対してdistortionが
 となるような

が存在する。

Anchor-Set
距離空間





Bourgain Theorem [Bourgain, 1985]
距離空間





具体的構成

Anchor-set Si,j
は各頂点を確率1/2i
で独立にサンプリング



63
のdistortionが である

が小さいほど距離を保つ
⇔ 

に対してdistortionが
 となるような

が存在する。

Anchor-Set
距離空間





Bourgain Theorem [Bourgain, 1985]
距離空間





具体的構成

Anchor-set Si,j
は各頂点を確率1/2i
で独立にサンプリング



64
のdistortionが である
 ⇔ 

に対してdistortionが
 となるような

が存在する。

Anchor-Set
距離空間





Bourgain Theorem [Bourgain, 1985]
距離空間





具体的構成

Anchor-set Si,j
は各頂点を確率1/2i
で独立にサンプリング

→ Si,j
を使うことでグラフ上の距離を保ったまま特徴空間にマッピングできる



65
のdistortionが である
 ⇔ 

に対してdistortionが
 となるような

が存在する。

Experiements
Link prediction
66
http://proceedings.mlr.press/v97/you19b/you19b.pdf
Experiments
Pairwise node classification
- 頂点対のラベルが同一かどうかを予測
67
http://proceedings.mlr.press/v97/you19b/you19b.pdf
Summary
既存のGNNでは局所構造が同じ頂点を区別できないことを指摘



Anchor-set を導入することで局所構造が同じであっても区別できるようにGNNを拡張



特定のタスクでは既存手法を大きく上回る性能

- Link prediction
- Pairwise node classification
68
Whole Summary
- グラフを扱う論文は増えてきている (昨年からおよそ倍増)

- タスクも手法も応用も多様化



- 論文紹介

- A Persistent Weisfeiler–Lehman Procedure for Graph Classification
- Adversarial Attacks on Node Embeddings via Graph Poisoning
- Simplifying Graph Convolutional Networks
- Position-aware Graph Neural Networks


69
References (ICML’19)
B. Rieck, C. Bock, and K. Borgwardt, “A Persistent Weisfeiler-Lehman Procedure for Graph Classification,” in International Conference on Machine Learning, 2019, pp. 5448–5458.
A. Bojchevski and S. Günnemann, “Adversarial Attacks on Node Embeddings via Graph Poisoning,” in International Conference on Machine Learning, 2019, pp. 695–704.
G. Zhang, H. He, and D. Katabi, “Circuit-GNN: Graph Neural Networks for Distributed Circuit Design,” in International Conference on Machine Learning, 2019, pp. 7364–7373.
Y. Yu, J. Chen, T. Gao, and M. Yu, “DAG-GNN: DAG Structure Learning with Graph Neural Networks,” in International Conference on Machine Learning, 2019, pp. 7154–7163.
J. Ma, P. Cui, K. Kuang, X. Wang, and W. Zhu, “Disentangled Graph Convolutional Networks,” in International Conference on Machine Learning, 2019,pp.4212–4221.
F. Gao, G. Wolf, and M. Hirn, “Geometric Scattering for Graph Data Analysis,” in International Conference on Machine Learning, 2019, pp. 2122–2131.
E. Smith, S. Fujimoto, A. Romero, and D. Meger, “GEOMetrics: Exploiting Geometric Structure for Graph-Encoded Objects,” in International Conference on Machine Learning, 2019, pp. 5866–5876.
M. Qu, Y. Bengio, and J. Tang, “GMNN: Graph Markov Neural Networks,” in International Conference on Machine Learning, 2019, pp. 5241–5250.
I. Walker and B. Glocker, “Graph Convolutional Gaussian Processes,” in International Conference on Machine Learning, 2019, pp. 6495–6504.
F. Alet, A. K. Jeewajee, M. B. Villalonga, A. Rodriguez, T. Lozano-Perez, and L. Kaelbling, “Graph Element Networks: adaptive, structured computation and memory,” in International Conference on Machine
Learning, 2019, pp. 212–222.
Y. Li, C. Gu, T. Dullien, O. Vinyals, and P. Kohli, “Graph Matching Networks for Learning the Similarity of Graph Structured Objects,” in International Conference on Machine Learning, 2019, pp. 3835–3845.
D. Jeong, T. Kwon, Y. Kim, and J. Nam, “Graph Neural Network for Music Score Data and Modeling Expressive Piano Performance,” in International Conference on Machine Learning, 2019, pp. 3060–3070.
J. Hendrickx, A. Olshevsky, and V. Saligrama, “Graph Resistance and Learning from Pairwise Comparisons,” in International Conference on Machine Learning, 2019, pp. 2702–2711.
H. Gao and S. Ji, “Graph U-Nets,” in International Conference on Machine Learning, 2019, pp. 2083–2092.
A. Grover, A. Zweig, and S. Ermon, “Graphite: Iterative Generative Modeling of Graphs,” in International Conference on Machine Learning, 2019, pp. 2434–2444.
R. Suzuki, R. Takahama, and S. Onoda, “Hyperbolic Disk Embeddings for Directed Acyclic Graphs,” in International Conference on Machine Learning, 2019, pp. 6066–6075.
C. Zhu, S. Storandt, K.-Y. Lam, S. Han, and J. Bi, “Improved Dynamic Graph Learning through Fault-Tolerant Sparsification,” in International Conference on Machine Learning, 2019, pp. 7624–7633.
S. Zhang, X. He, and S. Yan, “LatentGNN: Learning Efficient Non-local Relations for Visual Recognition,” in International Conference on Machine Learning, 2019, pp. 7374–7383.
L. Franceschi, M. Niepert, M. Pontil, and X. He, “Learning Discrete Structures for Graph Neural Networks,” in International Conference on Machine Learning, 2019, pp. 1972–1982.
L. Guo, Z. Sun, and W. Hu, “Learning to Exploit Long-term Relational Dependencies in Knowledge Graphs,” in International Conference on Machine Learning, 2019, pp. 2505–2514.
D. Baranchuk, D. Persiyanov, A. Sinitsin, and A. Babenko, “Learning to Route in Similarity Graphs,” in International Conference on Machine Learning, 2019, pp. 475–484.
S. Abu-El-Haija et al., “MixHop: Higher-Order Graph Convolutional Architectures via Sparsified Neighborhood Mixing,” in International Conference on Machine Learning, 2019, pp. 21–29.
H. Kajino, “Molecular Hypergraph Grammar with Its Application to Molecular Optimization,” in International Conference on Machine Learning, 2019, pp. 3183–3191.
V. Titouan, N. Courty, R. Tavenard, C. Laetitia, and R. Flamary, “Optimal Transport for structured data with application on graphs,” in International Conference on Machine Learning, 2019, pp. 6275–6284.
J. You, R. Ying, and J. Leskovec, “Position-aware Graph Neural Networks,” in International Conference on Machine Learning, 2019, pp. 7134–7143.
R. Murphy, B. Srinivasan, V. Rao, and B. Ribeiro, “Relational Pooling for Graph Representations,” in International Conference on Machine Learning, 2019, pp. 4663–4673.
J. Lee, I. Lee, and J. Kang, “Self-Attention Graph Pooling,” in International Conference on Machine Learning, 2019, pp. 3734–3743.
F. Wu, A. Souza, T. Zhang, C. Fifty, T. Yu, and K. Weinberger, “Simplifying Graph Convolutional Networks,” in International Conference on Machine Learning, 2019, pp. 6861–6871.
P. Mercado, F. Tudisco, and M. Hein, “Spectral Clustering of Signed Graphs via Matrix Power Means,” in International Conference on Machine Learning, 2019, pp. 4526–4536.
N. Mehta, L. C. Duke, and P. Rai, “Stochastic Blockmodels meet Graph Neural Networks,” in International Conference on Machine Learning, 2019, pp. 4466–4474. 70
References (ICML’18)
H. Dai et al., “Adversarial Attack on Graph Structured Data,” in International Conference on Machine Learning, 2018, pp. 1115–1124.
D. Bacciu, F. Errica, and A. Micheli, “Contextual Graph Markov Model: A Deep and Generative Approach to Graph Processing,” in International Conference on Machine Learning, 2018, pp. 294–303.
A. Sanchez-Gonzalez et al., “Graph Networks as Learnable Physics Engines for Inference and Control,” in International Conference on Machine Learning, 2018, pp. 4470–4479.
J. You, R. Ying, X. Ren, W. Hamilton, and J. Leskovec, “GraphRNN: Generating Realistic Graphs with Deep Auto-regressive Models,” in International Conference on Machine Learning, 2018, pp.
5708–5717.
D. Calandriello, A. Lazaric, I. Koutis, and M. Valko, “Improved large-scale graph learning through ridge spectral sparsification,” in International Conference on Machine Learning, 2018, pp. 688–697.
W. Jin, R. Barzilay, and T. Jaakkola, “Junction Tree Variational Autoencoder for Molecular Graph Generation,” in International Conference on Machine Learning, 2018, pp. 2323–2332.
H. Dai, Z. Kozareva, B. Dai, A. Smola, and L. Song, “Learning Steady-States of Iterative Algorithms over Graphs,” in International Conference on Machine Learning, 2018, pp. 1106–1114.
A. Douik and B. Hassibi, “Low-Rank Riemannian Optimization on Positive Semidefinite Stochastic Matrices with Applications to Graph Clustering,” in International Conference on Machine Learning, 2018,
pp. 1299–1308.
A. Bojchevski, O. Shchur, D. Zügner, and S. Günnemann, “NetGAN: Generating Graphs via Random Walks,” in International Conference on Machine Learning, 2018, pp. 610–619.
K. Levin, F. Roosta, M. Mahoney, and C. Priebe, “Out-of-sample extension of graph adjacency spectral embedding,” in International Conference on Machine Learning, 2018, pp. 2975–2984.
J. Xu, “Rates of Convergence of Spectral Methods for Graphon Estimation,” in International Conference on Machine Learning, 2018, pp. 5433–5442.
K. Xu, C. Li, Y. Tian, T. Sonobe, K. Kawarabayashi, and S. Jegelka, “Representation Learning on Graphs with Jumping Knowledge Networks,” in International Conference on Machine Learning, 2018, pp.
5453–5462.
A. Loukas and P. Vandergheynst, “Spectrally Approximating Large Graphs with Smaller Graphs,” in International Conference on Machine Learning, 2018, pp. 3237–3246.
J. Chen, J. Zhu, and L. Song, “Stochastic Training of Graph Convolutional Networks with Variance Reduction,” in International Conference on Machine Learning, 2018, pp. 942–950.
71
References
N. Shervashidze, P. Schweitzer, E. J. van Leeuwen, K. Mehlhorn, and K. M. Borgwardt, “Weisfeiler-Lehman Graph Kernels,” Journal of Machine Learning Research, vol. 12, no. Sep, pp. 2539–2561, 2011.
B. Perozzi, R. Al-Rfou, and S. Skiena, “DeepWalk: Online Learning of Social Representations,” Proceedings of the 20th ACM SIGKDD international conference on Knowledge discovery and data mining -
KDD ’14, pp. 701–710, 2014.
H. Edelsbrunner and J. Harer. Persistent homology — a survey. Surveys on Discrete and Computational Geometry. Twenty Years Later, eds. J. E. Goodman, J. Pach and R. Pollack, Contemporary
Mathematics 453, 257–282, Amer. Math. Soc., Providence, Rhode Island, 2008.
J. Qiu, Y. Dong, H. Ma, J. Li, K. Wang, and J. Tang, “Network Embedding as Matrix Factorization: Unifying DeepWalk, LINE, PTE, and node2vec,” Proceedings of the Eleventh ACM International Conference
on Web Search and Data Mining - WSDM ’18, pp. 459–467, 2018.
T. N. Kipf and M. Welling, “Semi-Supervised Classification with Graph Convolutional Networks,” arXiv:1609.02907 [cs, stat], Sep. 2016.
J. Bourgain, “On lipschitz embedding of finite metric spaces in Hilbert space,” Israel Journal of Mathematics, vol. 52, no. 1, pp. 46–52, Mar. 1985.
D. I. Shuman, S. K. Narang, P. Frossard, A. Ortega, and P. Vandergheynst, “The emerging field of signal processing on graphs: Extending high-dimensional data analysis to networks and other irregular
domains,” IEEE Signal Processing Magazine, vol. 30, no. 3, pp. 83–98, May 2013.
72

Weitere ähnliche Inhalte

Ähnlich wie Machine Learning on Graph Data @ ICML 2019

WWW2017論文読み会 Information Cascades と Graph Algorithms
WWW2017論文読み会 Information Cascades と Graph AlgorithmsWWW2017論文読み会 Information Cascades と Graph Algorithms
WWW2017論文読み会 Information Cascades と Graph Algorithmscyberagent
 
Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介
Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介
Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介Masayoshi Kondo
 
Silkによる並列分散ワークフロープログラミング
Silkによる並列分散ワークフロープログラミングSilkによる並列分散ワークフロープログラミング
Silkによる並列分散ワークフロープログラミングTaro L. Saito
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Seiya Tokui
 
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...Deep Learning JP
 
Graph convolutional policy network for goal directed molecular graph generation
Graph convolutional policy network for goal directed molecular graph generationGraph convolutional policy network for goal directed molecular graph generation
Graph convolutional policy network for goal directed molecular graph generationKazuki Fujikawa
 

Ähnlich wie Machine Learning on Graph Data @ ICML 2019 (6)

WWW2017論文読み会 Information Cascades と Graph Algorithms
WWW2017論文読み会 Information Cascades と Graph AlgorithmsWWW2017論文読み会 Information Cascades と Graph Algorithms
WWW2017論文読み会 Information Cascades と Graph Algorithms
 
Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介
Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介
Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介
 
Silkによる並列分散ワークフロープログラミング
Silkによる並列分散ワークフロープログラミングSilkによる並列分散ワークフロープログラミング
Silkによる並列分散ワークフロープログラミング
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
 
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...
 
Graph convolutional policy network for goal directed molecular graph generation
Graph convolutional policy network for goal directed molecular graph generationGraph convolutional policy network for goal directed molecular graph generation
Graph convolutional policy network for goal directed molecular graph generation
 

Mehr von emakryo

MediaPipeの紹介
MediaPipeの紹介MediaPipeの紹介
MediaPipeの紹介emakryo
 
Customizing cargo for cross compiling
Customizing cargo for cross compilingCustomizing cargo for cross compiling
Customizing cargo for cross compilingemakryo
 
Feature Store in DRIVE CHART
Feature Store in DRIVE CHARTFeature Store in DRIVE CHART
Feature Store in DRIVE CHARTemakryo
 
Feature StoreをRustで実装した話
Feature StoreをRustで実装した話Feature StoreをRustで実装した話
Feature StoreをRustで実装した話emakryo
 
なぜRustか?
なぜRustか?なぜRustか?
なぜRustか?emakryo
 
rustdef: Rust on jupyter notebook
rustdef: Rust on jupyter notebookrustdef: Rust on jupyter notebook
rustdef: Rust on jupyter notebookemakryo
 
Cargo makeを使ってみた話
Cargo makeを使ってみた話Cargo makeを使ってみた話
Cargo makeを使ってみた話emakryo
 
Neural networks for Graph Data NeurIPS2018読み会@PFN
Neural networks for Graph Data NeurIPS2018読み会@PFNNeural networks for Graph Data NeurIPS2018読み会@PFN
Neural networks for Graph Data NeurIPS2018読み会@PFNemakryo
 

Mehr von emakryo (8)

MediaPipeの紹介
MediaPipeの紹介MediaPipeの紹介
MediaPipeの紹介
 
Customizing cargo for cross compiling
Customizing cargo for cross compilingCustomizing cargo for cross compiling
Customizing cargo for cross compiling
 
Feature Store in DRIVE CHART
Feature Store in DRIVE CHARTFeature Store in DRIVE CHART
Feature Store in DRIVE CHART
 
Feature StoreをRustで実装した話
Feature StoreをRustで実装した話Feature StoreをRustで実装した話
Feature StoreをRustで実装した話
 
なぜRustか?
なぜRustか?なぜRustか?
なぜRustか?
 
rustdef: Rust on jupyter notebook
rustdef: Rust on jupyter notebookrustdef: Rust on jupyter notebook
rustdef: Rust on jupyter notebook
 
Cargo makeを使ってみた話
Cargo makeを使ってみた話Cargo makeを使ってみた話
Cargo makeを使ってみた話
 
Neural networks for Graph Data NeurIPS2018読み会@PFN
Neural networks for Graph Data NeurIPS2018読み会@PFNNeural networks for Graph Data NeurIPS2018読み会@PFN
Neural networks for Graph Data NeurIPS2018読み会@PFN
 

Kürzlich hochgeladen

IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxIoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxAtomu Hidaka
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムsugiuralab
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Danieldanielhu54
 
UPWARD_share_company_information_20240415.pdf
UPWARD_share_company_information_20240415.pdfUPWARD_share_company_information_20240415.pdf
UPWARD_share_company_information_20240415.pdffurutsuka
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略Ryo Sasaki
 
20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directoryosamut
 
PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000Shota Ito
 
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
新人研修のまとめ       2024/04/12の勉強会で発表されたものです。新人研修のまとめ       2024/04/12の勉強会で発表されたものです。
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。iPride Co., Ltd.
 
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。iPride Co., Ltd.
 

Kürzlich hochgeladen (9)

IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxIoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
 
UPWARD_share_company_information_20240415.pdf
UPWARD_share_company_information_20240415.pdfUPWARD_share_company_information_20240415.pdf
UPWARD_share_company_information_20240415.pdf
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
 
20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory
 
PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000
 
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
新人研修のまとめ       2024/04/12の勉強会で発表されたものです。新人研修のまとめ       2024/04/12の勉強会で発表されたものです。
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
 
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
 

Machine Learning on Graph Data @ ICML 2019