SlideShare ist ein Scribd-Unternehmen logo
1 von 30
DeepCas:
an End-to-end Predictor of
Information Cascades
田村浩一郎@松尾研 M1
Outlines
0. Information
1. Introduction
2. Related work
3. Method
4. Experiment Setup
5. Experiment Result
6. Discussion & Conclusion
0. Information
• Author
-Cheng Li, Jiaqi Ma, Xiaoxiao Guo, Qiaozhu Mei
• Submitted on 16 Nov 2016
• Society
-WWW 2017 accepted
• About
-Social and Information Networks
• arXiv: https://arxiv.org/abs/1611.05373
1. Introduction
information diffusion
• For types of information diffusion
1. herd behavior
Activated because many people are activated
2. information cascades
Activated because neighborhood is activated
3. diffusion of innovation
Analyze how innovation spreads from a bird’s eye view
4. Epidemics
Object spread randomly like epidemic
1. Introduction
What is information cascades?
• For types of information diffusion
1. herd behavior
Activated because many people are activated
2. information cascades
Activated because neighborhood is activated
3. diffusion of innovation
Analyze how innovation spreads from a bird’s eye view
4. Epidemics
Object spread randomly like epidemic
1. Introduction
motivation of study
• Most modern social network platforms are designed to facilitate fast diffusion of
information.
If feature cascade* can be predicted,
one can make wiser decisions in all scenarios.
*Cascade’s size: how many nodes are adopted
Cascade’s growth: growth rate of num of nodes
Cascade’s shape: shape of graph of adopted people
1. Introduction
problems of existing methods
• Previous studies required specific features to particular platform or to the particular
type of information being diffused
=> difficult to generalize, and there is no common principle of how to design and measure
the features
Is degree the correct measure of centrality?
Which algorithm should we use to extract communities?
How accurately can we detect and measure structural holes?
How do we systematically design those ‘magical’ features?
Apply End-to-end deep learning to information cascades prediction
1. Introduction
challenge of this new method
cascade
input output
Cascade growth( size )
How to design a suitable architecture to learn the representations of
graphs remains a major challenge.
2. Related work
2.1 Cascade Prediction
• 既存のcascade predictionを分類すると以下のようになる
• 予測するもの
1. Classification: ある情報が拡散するかどうか
2. Regression: numeric properties of a cascade in a feature
• 入力
1. 巨視的な変数(cascade size etc)
2. ミクロな視点から見た,確率的行動と情報推移=>強い仮定が必要だったり,過剰に簡易化する必要があった
結局,既存手法はいかに良い特徴量を設計できるかによってモデルの精度が決定していた
2. Related work
2.1 Learning the Representation of Graphs
• 本研究は,ネットワークの構造を学習する研究とも関連している
• 旧来型のネットワーク構造の表し方は,隣接行列などの離散表現で表現していた.
• 近年は,ノードを高次元空間のベクトルで表現したり,サブグラフの構造を学習することを試
みる研究が多い=>DeepWalk[29]
• 他の似たような研究領域では,グラフカーネルがある
• グラフ同士の類似度を計算する
• いつくかの研究[40, 27]では,deep learningの手法を用いている
• グラフカーネルの研究は,グラフの構造を認知する研究であり,ノード固有の情報を取り扱う
ことには向いていない
• グラフ構造を画像として取り扱い,CNNを用いる手法もある
• これらも,ノード固有の情報を取り扱うことに向いていない
• 近年の研究[37]では,ツイートにおいて特定のユーザーを言及することで,爆発的に拡
散することも確認されており,ユーザー固有の情報を扱うことは重要
3. Method
3.1 Problem Definition
• 問題設定として,情報の来歴(いつ、誰から)は観測できないが,その瞬間のcascade
(過去から現在までに情報について言及したか)は観測することができる
• 対象とするネットワークグラフを,
𝒢 = V, E V=ノードの集合,E=エッジの集合
ある時刻tのcascade 𝑐 ∈ 𝐶を,
𝑔𝑐
𝑡 = 𝑉𝑐
𝑡, 𝐸𝑐
𝑡 𝑉𝑐
𝑡 = 𝑐𝑎𝑠𝑐𝑎𝑑𝑒に属するノード集合,𝐸𝑐
𝑡 = 𝑉𝑐
𝑡内部のエッジ
• 予測対象は,各時刻のけるcascadeの大きさの変化
∆𝑠𝑐 = 𝑉𝑐
𝑡+∆𝑡 − 𝑉𝑐
𝑡
t=1 t=2 t=5
3. Method
3.2 DeepCas: the End-to-End Pipeline
• Cascade graphを入力として,cascade のsizeの増加分∆𝑠𝑐を予測する
• Node sequencesをグラフからAttention機構を用いたサンプリング
• Gated recurrent neural networkを用いる.
3. Method
3.3 Cascade Graph as Random Walk Paths
• どのようにノード系列をサンプリングするかという問題がある
• 一般的に,将来のcascadeのサイズは,誰が情報の伝達者化によって決まるため,グラ
フを表す場合,bag of nodesで表現することが考えられる
 しかし,diffusionを予測するに重要[10]なgcの構造的な情報を捉えていない
• バラバラなノード情報でなく,グラフのパスをサンプリングする
• ノードをword, パスをsentenceと見立て,グラフをsentenceの集合であるdocumentの
ように扱う
• マルコフ連鎖によってサンプリングを行う
3. Method
3.3 Cascade Graph as Random Walk Paths
• ランダムサンプリングは以下の通り
• 状態Sからstartする
• 確率1 − 𝑝𝑗で隣のノードに推移する状態Nを取り, 𝑝𝑗で任意のノードにjumpする
• 確率1 − 𝑝 𝑜で終端状態Tに遷移し,隣接ノードに移動してサンプリングを終了する
• 𝑁𝑐(𝑣)をノードvの隣接ノードの集合とし,ノード𝑢 ∈ 𝑁𝑐(𝑣) に関するscoring関数*を𝑠𝑐𝑡(𝑢)
とすると,
* 𝑠𝑐𝑡(𝑢)はgcにおけるout-degree of node u, 𝒢におけるout-degree of node uなど
3. Method
3.4 Sampling Sequences from a Graph
• 𝑝𝑗と𝑝 𝑜はサンプリングにおける重要なパラメタ
• 異なるグラフでは,異なるパラメタが要求されるはず
• 系列長Tやサンプリングする系列の数Kは,DeepWalkやNode2Vecは固定であるが,cascadeにおける適
切な系列長𝑡 𝑐や𝑘 𝑐を自動で獲得したい
• 𝑡 𝑐, 𝑘 𝑐 を獲得するために𝑝𝑗,𝑝 𝑜もEnd-to-endの枠組みで学習してしまう(後述)
3. Method
3.5 Neural Network Models
• サンプリングができてしまえば,あとは文章を取り扱うよな普通のneural networkを使
えば良い
• 普通の自然言語処理(翻訳や要約など)と違うのは,サンプリングの過程からend-to-endであること
1. Node Embedding
• 𝑁 𝑛𝑜𝑑𝑒をグラフ全体のノード数とした時,あるノードqはq ∈ 𝑅 𝑁 𝑛𝑜𝑑𝑒のone-hot ベクトルで表現される
• Embedding Matrixを𝐴 ∈ 𝑅 𝐻∗𝑁 𝑛𝑜𝑑𝑒として, 𝑥 = 𝐴𝑞, 𝑥 ∈ 𝑅ℎ
に埋め込まれる
2. GRU-based Sequence Encoding
引用: https://qiita.com/KojiOhki/items/89cd7b69a8a6239d67ca
3. Method
3.5 Neural Network Models
2. GRU-based Sequence Encoding
• [FWD]どのように情報が伝わって行くか[BWD]どこから情報が伝わってきたか
• bi-directional GRUを採用
3. Method
3.5 Neural Network Models
3. From sequence to graph representation
• グラフからのサンプリングは,attention機構を用いる
• 終端確率𝑝 𝑜は,系列長𝑡 𝑐を決定するパラメタと考えられる
• 系列の数Kは,mini-batchesに分割し,学習がきちんとなされるまで新たなmini-batchを読み込む
• 幾何分布に従ったattention機構を用いる
• Attentionの重みは, 𝑝 𝑔𝑒𝑜
𝑐
, 𝑝 𝑔𝑒𝑜
𝑐
(1-𝑝 𝑔𝑒𝑜
𝑐
), 𝑝 𝑔𝑒𝑜
𝑐
(1 − 𝑝 𝑔𝑒𝑜
𝑐
)2
,,, 𝑝 𝑔𝑒𝑜
𝑐
(1 − 𝑝 𝑔𝑒𝑜
𝑐
) 𝑛
• 確率𝑝 𝑔𝑒𝑜
𝑐
の幾何分布に従うので,理論的には用いるmini-batch数は1
𝑝 𝑔𝑒𝑜
𝑐
• 𝑝 𝑔𝑒𝑜
𝑐
を決定すれば,事実上サンプリング数Kが決定することになる
• Cascadeごとに𝑝 𝑔𝑒𝑜
𝑐
を定義すると,非常に自由度が高くうまくいかないので,cascadeグラフの大きさ依
存の変数にする. 𝑝 𝑔𝑒𝑜
𝑐
=> 𝑝 𝑔𝑒𝑜
log2(𝑠𝑧 𝑔 𝑐 +1)
3. Method
3.5 Neural Network Models
3. From sequence to graph representation
• 系列長についても同じように学習できる
• 多項分布に従うパラメタで重み付けを行うattention機構を用いる
• 系列長𝑇の各ノードについて,𝜆1 𝜆2, , , 𝜆 𝑇 をかける.( 𝜆𝑖 = 1)
• Mini-batchにおけるattentionもまとめると,以下のようになる
ただし,𝑎 𝑐 = 𝑝 𝑔𝑒𝑜
𝑐
4. Output module
• アウトプットは,𝑓 𝑔𝑐 = MLP(ℎ(𝑔𝑐))
4. EXPERIMENT SETUP
4.1 Datasets
• 2つのデータを用いる
1. Tweets on Twitter
• リツイートなされたアカウントのグラフをcascadeとする(ツイートの発信源,originalとリツイートしたアカウント
によってなる )
• `the official Dacahose API`からはfollower, followeeの関係がとってこれないので,[30]に従って,AがBのツイー
トをリツイートした場合ならびにリプライした場合に全体のグラフのエッジを定義する.follower, followeeのネッ
トワーク構造に対して,全てのinformation cascadeとアクティブなconnectionを反映する
• t =1,3,5 days から,∆𝑡 = 1,3,5 𝑑𝑎𝑦𝑠後のcascade sizeの変化を予測する
2. Scientific paper
• AMINER dataset を,ArnetMinerが提供するDBLP citation networkを用いて収集,論文の引用関係についてモデル
適用する
• 論文を書いた著者とそれを引用した著者の間にエッジを定義する
• t =1,2,3 years から,∆𝑡 = 1,2,3 𝑦𝑒𝑎𝑟𝑠後のcascade sizeの変化を予測する
• 両方のデータセットについて,ほとんど広がらないツイートや論文も多く,それらは冪
乗則に従うので,拡散,成長率が0%であるもののうち50%をダウンサンプリングし,か
つ予測するアウトプットを対数変換する
4. EXPERIMENT SETUP
4.1 Datasets
4. EXPERIMENT SETUP
4.2 Evaluation Metric
• MSEで評価
• すでに3.1述べたように,yの値は対数変換されているので,ほぼmean squared
logarithmic errorと同じ
4. EXPERIMENT SETUP
4.3 Baseline methods
• 検証として,以下に分類されるような複数のベースラインと比較
1. 事前に定義した特徴量ベースにcascadeの予測を行うモデル
• Feature-deep
• Feature-linear
• OSLOR[11]
2. ノード埋め込みを行うモデル
• node2vec[16]
• Embedded-LC[8]
3. 他のグラフの特徴量を予測するようなdeep learningを使ったモデル
• PCSN[28]: CNNを隣接した領域に対して用いたもの
• Graph-Kernels
• WL-degree
• WL-id
• Hyper-parameterは,それぞれのデータセットに対して9つのvalidationデータを用いて
チューニングされたもの
4. EXPERIMENT SETUP
4.4 DeepCas and Variants
• 提案手法DeepCasも,samplingにおける遷移確率においていくつかのパターンを検証す
る
1. DeepCas-edge: edge weight
2. DeepCas-deg: node degree in cascade Graph
3. DeepCas-DEG: node degree in whole Graph
• Hyper-parameterは,
• K=200, T=10, mini-batch-size=5, α=0.01, embedding-size=100(twitter), 50(aminer), node2vecのパラ
メタp, q = 1
• 提案手法のうち,いくつかの機能を省いたモデルも検証
• GRU-bag: DeepCasのサンプリングの仕方ではなく,bag of nodesをGRUの入力にする
• GRU-fix: attentionを行わずに,固定長のdocumentを入力として扱う
• GRU-root: attentionは行うが,pathのサンプリングにおいて常にrootから始まるようにsequenceを定義す
る
5. EXPERIMENT RESULTS
5.1 Overall performance
5. EXPERIMENT RESULTS
5.1 Overall performance
5. EXPERIMENT RESULTS
5.1 Overall performance & 5.2 Computation Cost
• DeepCasについて得られた知見として
1. グラフの統計量でなく,グラフからサンプリングしたsequencesを入力とすることが重要
2. 固定長のdocumentでなく,end-to-endで,可変長のdocumentを扱うことは効果的
3. Rootからpathをサンプリングすることは効果的でない
• 予測する時間軸について
• 予測開始時刻tが大きい(遅い)ほど,精度は高い
• 予測期間∆𝑡が小さいほど精度が高い
• 2.40GHz GPU, 120G RAM & single Titan X GPUで,20minsでサンプリングが終了し,
10minsで学習が終了
5. EXPERIMENT RESULTS
5.3 Error Analysis
• MSEが大きかったcascadeについて分析
• とりわけ悪かったいくつかのcascadesに対して,ネットワーク特徴量を計算し,平均を求める
• より大きく,密度が高い複雑なネットワークに対して,DeepCasはより効果を発揮する
• 逆に,小さく過疎なグラフはhand madeな特徴量を用いたほうが良い
5. EXPERIMENT RESULTS
5.4 Interpreting the Representations
• Deep learningを使って精度を上げたのは良いが,ネットワーク分野において,意味解釈
をする必要がる.
• いくつかの特徴量をハンドメイドして,学習した特徴量との類似性に注目して可視化
• DeepCasがcascadeネットワークのthe number of open, closed triangles, and the number of
communitiesといったプロパティを捉えられているだけでなく,グラフ全体の特徴量を捉えている
• Open, closed trianglesの数は予測に重要なパラメタ
• Deepcasがedgeやnodeの数だけでなく,非線形な関係を捉えていることを示している
6. Discussion & Conclusion
• 初めてend-to-end のinformation cascadeを予測するモデルを提案した
• マルコフ連鎖を用いたサンプリングによって,cascadeグラフの表現を獲得し,GRUの入力データとする
• Attentionによって,サンプリングする際のdocumentの大きさを可変に扱う
• Handcraftな特徴量は,グラフ関連研究ではすでに一定の成果を出している
• Deep learningを用いることによって,汎用性の高いやり方で,ネットワークをよく表現する特徴量を抽出
することができる
• 一方で,handcraftな特徴量を用いるば場合,結果や重要な特徴量に関して意味解釈がしやすいというメ
リットがある
• 特に,ランダムウォークでサンプリングすることは効果的で,ネットワーク関連研究的
には新しい
• 今回はcascadeのグラフ構造の予測を行なったが,他の分野に対して他の予測対象に対
して使えるはずである

Weitere ähnliche Inhalte

Was ist angesagt?

ICLR2020読み会 (neural-tangents)
ICLR2020読み会 (neural-tangents)ICLR2020読み会 (neural-tangents)
ICLR2020読み会 (neural-tangents)RyuichiKanoh
 
輪読資料 Xception: Deep Learning with Depthwise Separable Convolutions
輪読資料 Xception: Deep Learning with Depthwise Separable Convolutions輪読資料 Xception: Deep Learning with Depthwise Separable Convolutions
輪読資料 Xception: Deep Learning with Depthwise Separable ConvolutionsKotaro Asami
 
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...MasanoriSuganuma
 
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based ControlDeep Learning JP
 
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...Deep Learning JP
 
Dynamic Routing Between Capsules
Dynamic Routing Between CapsulesDynamic Routing Between Capsules
Dynamic Routing Between CapsulesMasaya Kaneko
 

Was ist angesagt? (8)

ICLR2020読み会 (neural-tangents)
ICLR2020読み会 (neural-tangents)ICLR2020読み会 (neural-tangents)
ICLR2020読み会 (neural-tangents)
 
画像処理応用
画像処理応用画像処理応用
画像処理応用
 
輪読資料 Xception: Deep Learning with Depthwise Separable Convolutions
輪読資料 Xception: Deep Learning with Depthwise Separable Convolutions輪読資料 Xception: Deep Learning with Depthwise Separable Convolutions
輪読資料 Xception: Deep Learning with Depthwise Separable Convolutions
 
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
 
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
 
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
 
はじパタLT2
はじパタLT2はじパタLT2
はじパタLT2
 
Dynamic Routing Between Capsules
Dynamic Routing Between CapsulesDynamic Routing Between Capsules
Dynamic Routing Between Capsules
 

Ähnlich wie DeepCas

[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for PredictionDeep Learning JP
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
ISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernelISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernel弘毅 露崎
 
Matrix capsules with em routing
Matrix capsules with em routingMatrix capsules with em routing
Matrix capsules with em routingKazuki Fujikawa
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化Yusuke Uchida
 
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...Deep Learning JP
 
20160901 jwein
20160901 jwein20160901 jwein
20160901 jweintm1966
 
深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)okku apot
 
[DL輪読会]Imputing Missing Events in Continuous-Time Event Streams (ICML 2019)
[DL輪読会]Imputing Missing Events in Continuous-Time Event Streams (ICML 2019)[DL輪読会]Imputing Missing Events in Continuous-Time Event Streams (ICML 2019)
[DL輪読会]Imputing Missing Events in Continuous-Time Event Streams (ICML 2019)Deep Learning JP
 
ニューラルネットワークの基礎@ブログ用
ニューラルネットワークの基礎@ブログ用ニューラルネットワークの基礎@ブログ用
ニューラルネットワークの基礎@ブログ用Yoshihiro Takahashi
 
大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズム大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズムTakuya Akiba
 
PFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナー
PFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナーPFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナー
PFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナーMatlantis
 
【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networks
【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networks【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networks
【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networkscvpaper. challenge
 
関西CVPRML勉強会資料20150627
関西CVPRML勉強会資料20150627関西CVPRML勉強会資料20150627
関西CVPRML勉強会資料20150627tsunekawas
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochiOhsawa Goodfellow
 
Newman アルゴリズムによるソーシャルグラフのクラスタリング
Newman アルゴリズムによるソーシャルグラフのクラスタリングNewman アルゴリズムによるソーシャルグラフのクラスタリング
Newman アルゴリズムによるソーシャルグラフのクラスタリングAtsushi KOMIYA
 
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
NIPS2019  Amazon「think globally, act locally : a deep neural network approach...NIPS2019  Amazon「think globally, act locally : a deep neural network approach...
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...SaeruYamamuro
 
Structural data analysis based on multilayer networks
Structural data analysis based on multilayer networksStructural data analysis based on multilayer networks
Structural data analysis based on multilayer networkstm1966
 

Ähnlich wie DeepCas (20)

NeurIPS2019参加報告
NeurIPS2019参加報告NeurIPS2019参加報告
NeurIPS2019参加報告
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
ISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernelISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernel
 
Matrix capsules with em routing
Matrix capsules with em routingMatrix capsules with em routing
Matrix capsules with em routing
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
 
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
 
20160901 jwein
20160901 jwein20160901 jwein
20160901 jwein
 
深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)
 
[DL輪読会]Imputing Missing Events in Continuous-Time Event Streams (ICML 2019)
[DL輪読会]Imputing Missing Events in Continuous-Time Event Streams (ICML 2019)[DL輪読会]Imputing Missing Events in Continuous-Time Event Streams (ICML 2019)
[DL輪読会]Imputing Missing Events in Continuous-Time Event Streams (ICML 2019)
 
ニューラルネットワークの基礎@ブログ用
ニューラルネットワークの基礎@ブログ用ニューラルネットワークの基礎@ブログ用
ニューラルネットワークの基礎@ブログ用
 
大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズム大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズム
 
PFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナー
PFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナーPFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナー
PFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナー
 
SoCC12報告
SoCC12報告SoCC12報告
SoCC12報告
 
【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networks
【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networks【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networks
【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networks
 
関西CVPRML勉強会資料20150627
関西CVPRML勉強会資料20150627関西CVPRML勉強会資料20150627
関西CVPRML勉強会資料20150627
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
 
Newman アルゴリズムによるソーシャルグラフのクラスタリング
Newman アルゴリズムによるソーシャルグラフのクラスタリングNewman アルゴリズムによるソーシャルグラフのクラスタリング
Newman アルゴリズムによるソーシャルグラフのクラスタリング
 
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
NIPS2019  Amazon「think globally, act locally : a deep neural network approach...NIPS2019  Amazon「think globally, act locally : a deep neural network approach...
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
 
Structural data analysis based on multilayer networks
Structural data analysis based on multilayer networksStructural data analysis based on multilayer networks
Structural data analysis based on multilayer networks
 

Kürzlich hochgeladen

デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 

Kürzlich hochgeladen (9)

デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 

DeepCas

  • 1. DeepCas: an End-to-end Predictor of Information Cascades 田村浩一郎@松尾研 M1
  • 2. Outlines 0. Information 1. Introduction 2. Related work 3. Method 4. Experiment Setup 5. Experiment Result 6. Discussion & Conclusion
  • 3. 0. Information • Author -Cheng Li, Jiaqi Ma, Xiaoxiao Guo, Qiaozhu Mei • Submitted on 16 Nov 2016 • Society -WWW 2017 accepted • About -Social and Information Networks • arXiv: https://arxiv.org/abs/1611.05373
  • 4. 1. Introduction information diffusion • For types of information diffusion 1. herd behavior Activated because many people are activated 2. information cascades Activated because neighborhood is activated 3. diffusion of innovation Analyze how innovation spreads from a bird’s eye view 4. Epidemics Object spread randomly like epidemic
  • 5. 1. Introduction What is information cascades? • For types of information diffusion 1. herd behavior Activated because many people are activated 2. information cascades Activated because neighborhood is activated 3. diffusion of innovation Analyze how innovation spreads from a bird’s eye view 4. Epidemics Object spread randomly like epidemic
  • 6. 1. Introduction motivation of study • Most modern social network platforms are designed to facilitate fast diffusion of information. If feature cascade* can be predicted, one can make wiser decisions in all scenarios. *Cascade’s size: how many nodes are adopted Cascade’s growth: growth rate of num of nodes Cascade’s shape: shape of graph of adopted people
  • 7. 1. Introduction problems of existing methods • Previous studies required specific features to particular platform or to the particular type of information being diffused => difficult to generalize, and there is no common principle of how to design and measure the features Is degree the correct measure of centrality? Which algorithm should we use to extract communities? How accurately can we detect and measure structural holes? How do we systematically design those ‘magical’ features? Apply End-to-end deep learning to information cascades prediction
  • 8. 1. Introduction challenge of this new method cascade input output Cascade growth( size ) How to design a suitable architecture to learn the representations of graphs remains a major challenge.
  • 9. 2. Related work 2.1 Cascade Prediction • 既存のcascade predictionを分類すると以下のようになる • 予測するもの 1. Classification: ある情報が拡散するかどうか 2. Regression: numeric properties of a cascade in a feature • 入力 1. 巨視的な変数(cascade size etc) 2. ミクロな視点から見た,確率的行動と情報推移=>強い仮定が必要だったり,過剰に簡易化する必要があった 結局,既存手法はいかに良い特徴量を設計できるかによってモデルの精度が決定していた
  • 10. 2. Related work 2.1 Learning the Representation of Graphs • 本研究は,ネットワークの構造を学習する研究とも関連している • 旧来型のネットワーク構造の表し方は,隣接行列などの離散表現で表現していた. • 近年は,ノードを高次元空間のベクトルで表現したり,サブグラフの構造を学習することを試 みる研究が多い=>DeepWalk[29] • 他の似たような研究領域では,グラフカーネルがある • グラフ同士の類似度を計算する • いつくかの研究[40, 27]では,deep learningの手法を用いている • グラフカーネルの研究は,グラフの構造を認知する研究であり,ノード固有の情報を取り扱う ことには向いていない • グラフ構造を画像として取り扱い,CNNを用いる手法もある • これらも,ノード固有の情報を取り扱うことに向いていない • 近年の研究[37]では,ツイートにおいて特定のユーザーを言及することで,爆発的に拡 散することも確認されており,ユーザー固有の情報を扱うことは重要
  • 11. 3. Method 3.1 Problem Definition • 問題設定として,情報の来歴(いつ、誰から)は観測できないが,その瞬間のcascade (過去から現在までに情報について言及したか)は観測することができる • 対象とするネットワークグラフを, 𝒢 = V, E V=ノードの集合,E=エッジの集合 ある時刻tのcascade 𝑐 ∈ 𝐶を, 𝑔𝑐 𝑡 = 𝑉𝑐 𝑡, 𝐸𝑐 𝑡 𝑉𝑐 𝑡 = 𝑐𝑎𝑠𝑐𝑎𝑑𝑒に属するノード集合,𝐸𝑐 𝑡 = 𝑉𝑐 𝑡内部のエッジ • 予測対象は,各時刻のけるcascadeの大きさの変化 ∆𝑠𝑐 = 𝑉𝑐 𝑡+∆𝑡 − 𝑉𝑐 𝑡 t=1 t=2 t=5
  • 12. 3. Method 3.2 DeepCas: the End-to-End Pipeline • Cascade graphを入力として,cascade のsizeの増加分∆𝑠𝑐を予測する • Node sequencesをグラフからAttention機構を用いたサンプリング • Gated recurrent neural networkを用いる.
  • 13. 3. Method 3.3 Cascade Graph as Random Walk Paths • どのようにノード系列をサンプリングするかという問題がある • 一般的に,将来のcascadeのサイズは,誰が情報の伝達者化によって決まるため,グラ フを表す場合,bag of nodesで表現することが考えられる  しかし,diffusionを予測するに重要[10]なgcの構造的な情報を捉えていない • バラバラなノード情報でなく,グラフのパスをサンプリングする • ノードをword, パスをsentenceと見立て,グラフをsentenceの集合であるdocumentの ように扱う • マルコフ連鎖によってサンプリングを行う
  • 14. 3. Method 3.3 Cascade Graph as Random Walk Paths • ランダムサンプリングは以下の通り • 状態Sからstartする • 確率1 − 𝑝𝑗で隣のノードに推移する状態Nを取り, 𝑝𝑗で任意のノードにjumpする • 確率1 − 𝑝 𝑜で終端状態Tに遷移し,隣接ノードに移動してサンプリングを終了する • 𝑁𝑐(𝑣)をノードvの隣接ノードの集合とし,ノード𝑢 ∈ 𝑁𝑐(𝑣) に関するscoring関数*を𝑠𝑐𝑡(𝑢) とすると, * 𝑠𝑐𝑡(𝑢)はgcにおけるout-degree of node u, 𝒢におけるout-degree of node uなど
  • 15. 3. Method 3.4 Sampling Sequences from a Graph • 𝑝𝑗と𝑝 𝑜はサンプリングにおける重要なパラメタ • 異なるグラフでは,異なるパラメタが要求されるはず • 系列長Tやサンプリングする系列の数Kは,DeepWalkやNode2Vecは固定であるが,cascadeにおける適 切な系列長𝑡 𝑐や𝑘 𝑐を自動で獲得したい • 𝑡 𝑐, 𝑘 𝑐 を獲得するために𝑝𝑗,𝑝 𝑜もEnd-to-endの枠組みで学習してしまう(後述)
  • 16. 3. Method 3.5 Neural Network Models • サンプリングができてしまえば,あとは文章を取り扱うよな普通のneural networkを使 えば良い • 普通の自然言語処理(翻訳や要約など)と違うのは,サンプリングの過程からend-to-endであること 1. Node Embedding • 𝑁 𝑛𝑜𝑑𝑒をグラフ全体のノード数とした時,あるノードqはq ∈ 𝑅 𝑁 𝑛𝑜𝑑𝑒のone-hot ベクトルで表現される • Embedding Matrixを𝐴 ∈ 𝑅 𝐻∗𝑁 𝑛𝑜𝑑𝑒として, 𝑥 = 𝐴𝑞, 𝑥 ∈ 𝑅ℎ に埋め込まれる 2. GRU-based Sequence Encoding 引用: https://qiita.com/KojiOhki/items/89cd7b69a8a6239d67ca
  • 17. 3. Method 3.5 Neural Network Models 2. GRU-based Sequence Encoding • [FWD]どのように情報が伝わって行くか[BWD]どこから情報が伝わってきたか • bi-directional GRUを採用
  • 18. 3. Method 3.5 Neural Network Models 3. From sequence to graph representation • グラフからのサンプリングは,attention機構を用いる • 終端確率𝑝 𝑜は,系列長𝑡 𝑐を決定するパラメタと考えられる • 系列の数Kは,mini-batchesに分割し,学習がきちんとなされるまで新たなmini-batchを読み込む • 幾何分布に従ったattention機構を用いる • Attentionの重みは, 𝑝 𝑔𝑒𝑜 𝑐 , 𝑝 𝑔𝑒𝑜 𝑐 (1-𝑝 𝑔𝑒𝑜 𝑐 ), 𝑝 𝑔𝑒𝑜 𝑐 (1 − 𝑝 𝑔𝑒𝑜 𝑐 )2 ,,, 𝑝 𝑔𝑒𝑜 𝑐 (1 − 𝑝 𝑔𝑒𝑜 𝑐 ) 𝑛 • 確率𝑝 𝑔𝑒𝑜 𝑐 の幾何分布に従うので,理論的には用いるmini-batch数は1 𝑝 𝑔𝑒𝑜 𝑐 • 𝑝 𝑔𝑒𝑜 𝑐 を決定すれば,事実上サンプリング数Kが決定することになる • Cascadeごとに𝑝 𝑔𝑒𝑜 𝑐 を定義すると,非常に自由度が高くうまくいかないので,cascadeグラフの大きさ依 存の変数にする. 𝑝 𝑔𝑒𝑜 𝑐 => 𝑝 𝑔𝑒𝑜 log2(𝑠𝑧 𝑔 𝑐 +1)
  • 19. 3. Method 3.5 Neural Network Models 3. From sequence to graph representation • 系列長についても同じように学習できる • 多項分布に従うパラメタで重み付けを行うattention機構を用いる • 系列長𝑇の各ノードについて,𝜆1 𝜆2, , , 𝜆 𝑇 をかける.( 𝜆𝑖 = 1) • Mini-batchにおけるattentionもまとめると,以下のようになる ただし,𝑎 𝑐 = 𝑝 𝑔𝑒𝑜 𝑐 4. Output module • アウトプットは,𝑓 𝑔𝑐 = MLP(ℎ(𝑔𝑐))
  • 20. 4. EXPERIMENT SETUP 4.1 Datasets • 2つのデータを用いる 1. Tweets on Twitter • リツイートなされたアカウントのグラフをcascadeとする(ツイートの発信源,originalとリツイートしたアカウント によってなる ) • `the official Dacahose API`からはfollower, followeeの関係がとってこれないので,[30]に従って,AがBのツイー トをリツイートした場合ならびにリプライした場合に全体のグラフのエッジを定義する.follower, followeeのネッ トワーク構造に対して,全てのinformation cascadeとアクティブなconnectionを反映する • t =1,3,5 days から,∆𝑡 = 1,3,5 𝑑𝑎𝑦𝑠後のcascade sizeの変化を予測する 2. Scientific paper • AMINER dataset を,ArnetMinerが提供するDBLP citation networkを用いて収集,論文の引用関係についてモデル 適用する • 論文を書いた著者とそれを引用した著者の間にエッジを定義する • t =1,2,3 years から,∆𝑡 = 1,2,3 𝑦𝑒𝑎𝑟𝑠後のcascade sizeの変化を予測する • 両方のデータセットについて,ほとんど広がらないツイートや論文も多く,それらは冪 乗則に従うので,拡散,成長率が0%であるもののうち50%をダウンサンプリングし,か つ予測するアウトプットを対数変換する
  • 22. 4. EXPERIMENT SETUP 4.2 Evaluation Metric • MSEで評価 • すでに3.1述べたように,yの値は対数変換されているので,ほぼmean squared logarithmic errorと同じ
  • 23. 4. EXPERIMENT SETUP 4.3 Baseline methods • 検証として,以下に分類されるような複数のベースラインと比較 1. 事前に定義した特徴量ベースにcascadeの予測を行うモデル • Feature-deep • Feature-linear • OSLOR[11] 2. ノード埋め込みを行うモデル • node2vec[16] • Embedded-LC[8] 3. 他のグラフの特徴量を予測するようなdeep learningを使ったモデル • PCSN[28]: CNNを隣接した領域に対して用いたもの • Graph-Kernels • WL-degree • WL-id • Hyper-parameterは,それぞれのデータセットに対して9つのvalidationデータを用いて チューニングされたもの
  • 24. 4. EXPERIMENT SETUP 4.4 DeepCas and Variants • 提案手法DeepCasも,samplingにおける遷移確率においていくつかのパターンを検証す る 1. DeepCas-edge: edge weight 2. DeepCas-deg: node degree in cascade Graph 3. DeepCas-DEG: node degree in whole Graph • Hyper-parameterは, • K=200, T=10, mini-batch-size=5, α=0.01, embedding-size=100(twitter), 50(aminer), node2vecのパラ メタp, q = 1 • 提案手法のうち,いくつかの機能を省いたモデルも検証 • GRU-bag: DeepCasのサンプリングの仕方ではなく,bag of nodesをGRUの入力にする • GRU-fix: attentionを行わずに,固定長のdocumentを入力として扱う • GRU-root: attentionは行うが,pathのサンプリングにおいて常にrootから始まるようにsequenceを定義す る
  • 25. 5. EXPERIMENT RESULTS 5.1 Overall performance
  • 26. 5. EXPERIMENT RESULTS 5.1 Overall performance
  • 27. 5. EXPERIMENT RESULTS 5.1 Overall performance & 5.2 Computation Cost • DeepCasについて得られた知見として 1. グラフの統計量でなく,グラフからサンプリングしたsequencesを入力とすることが重要 2. 固定長のdocumentでなく,end-to-endで,可変長のdocumentを扱うことは効果的 3. Rootからpathをサンプリングすることは効果的でない • 予測する時間軸について • 予測開始時刻tが大きい(遅い)ほど,精度は高い • 予測期間∆𝑡が小さいほど精度が高い • 2.40GHz GPU, 120G RAM & single Titan X GPUで,20minsでサンプリングが終了し, 10minsで学習が終了
  • 28. 5. EXPERIMENT RESULTS 5.3 Error Analysis • MSEが大きかったcascadeについて分析 • とりわけ悪かったいくつかのcascadesに対して,ネットワーク特徴量を計算し,平均を求める • より大きく,密度が高い複雑なネットワークに対して,DeepCasはより効果を発揮する • 逆に,小さく過疎なグラフはhand madeな特徴量を用いたほうが良い
  • 29. 5. EXPERIMENT RESULTS 5.4 Interpreting the Representations • Deep learningを使って精度を上げたのは良いが,ネットワーク分野において,意味解釈 をする必要がる. • いくつかの特徴量をハンドメイドして,学習した特徴量との類似性に注目して可視化 • DeepCasがcascadeネットワークのthe number of open, closed triangles, and the number of communitiesといったプロパティを捉えられているだけでなく,グラフ全体の特徴量を捉えている • Open, closed trianglesの数は予測に重要なパラメタ • Deepcasがedgeやnodeの数だけでなく,非線形な関係を捉えていることを示している
  • 30. 6. Discussion & Conclusion • 初めてend-to-end のinformation cascadeを予測するモデルを提案した • マルコフ連鎖を用いたサンプリングによって,cascadeグラフの表現を獲得し,GRUの入力データとする • Attentionによって,サンプリングする際のdocumentの大きさを可変に扱う • Handcraftな特徴量は,グラフ関連研究ではすでに一定の成果を出している • Deep learningを用いることによって,汎用性の高いやり方で,ネットワークをよく表現する特徴量を抽出 することができる • 一方で,handcraftな特徴量を用いるば場合,結果や重要な特徴量に関して意味解釈がしやすいというメ リットがある • 特に,ランダムウォークでサンプリングすることは効果的で,ネットワーク関連研究的 には新しい • 今回はcascadeのグラフ構造の予測を行なったが,他の分野に対して他の予測対象に対 して使えるはずである

Hinweis der Redaktion

  1. Let me show you outlines of this presentation
  2. Current state of art object detection is as follows. There are many related techniques as follows.
  3. Current state of art object detection is as follows. There are many related techniques as follows.