SlideShare ist ein Scribd-Unternehmen logo
1 von 23
複雑ネットワーク勉強会
第6章 
成長するスケールフリー・ネットワークのモデル
(後編)



2012年3月21日 @tetsuroito
前回(6章前半)のおさらい

第6章の前半では、成長するスケールフリー・ネットワークの概要を説明しました。

その中で、代表的な下記のモデルを紹介しました。
・BAモデル
(次数分布の導出および優先的選択の拡張)
・頂点コピーモデル
・Dorogovtsev-Mendes-Samukhinモデル
・Holme-Kimモデル



本日は残りをやります!
お断り-again-

•本章ではたくさんの数式が頻出するため、スライドの数
式は控え、教科書の式番号と対応させています。あらか
じめご了承ください。
アジェンダ

• 適応度モデル


• 頂点非活性化モデル


• 階層的モデル

            バラバシの階層的モデル
           ドロゴフツェフの階層的モデル
            ラヴァスの階層的モデル
適応度モデル

BAモデルの優先的選択の対極的な拡張モデル。
(新しいノードが既存のハブに下克上し、新たなハブとなるモデル)

ネットワークに加わる各ノードは適応度(頂点の価値、強さ)という実数を持つ。
適応度が大きいほどエッジを受けとりやすい。

適応度の高いノードがそれより低い既存のハブを追い越し、ハブとなる。

次数分布は適応度の分布に依存。γ≠3のべき分布になったり、べき分布にならなかっ
たりする。
極論すると、数個のノードがほとんどのエッジを持つような一人勝ち現象も起こりえ
る。

このモデルはボーズ統計という量子統計との間に対応関係がある。
適応度モデル

モデルの定式化
点viの適応度がηiとする。(ηi:各iについて独立に確率密度ρ(η)に比例し選ばれる)
優先的選択ルールの拡張で、新しい枝を受ける確率を        とする。
成長ルールはBAモデルと同様。ηi=1ならば通常のBAモデルと同じ

■次数分布の導出
dki/dt=

適応度モデルでは次数はネットワークへの加入時刻tiだけでなく、適応度ηiにも依存
初期条件




ここでβ(η)を知りたい。
適応度モデル

適応度モデルでは、ηiとkjの間に相関があるので、分母が単純に2mtではない。
評価の方法は式(6.36)のようになる。

2つの積分によって適応度と頂点のネットワーク加入時刻tiの平均を取っている。
単位時間でki(t)は高々1しか増えず、実際はki(t)はtに比例するほど速くは増えない
以下よりβ(η)<1とし、t→∞として、(6.36)の   を無視すると(6.37)式。
ただし
(6.37)式を(6.34)式の右辺の分母に代入すると、
この式の解が(6.35)なので、β(η)=η/cが満たされている必要がある。
βがηについて単調増加→適応度大きいノードほど次数が大きくなりやすい
あとは、cとβ(η)の連立方程式として解き、次数がk未満となる頂点の割合を
求めれば、次数分布の導出は完了する。(6章前半でもさんざんやった導出)
適応度モデル
ボーズ・アインシュタイン凝縮の話は割愛させてください。
適応度モデルと対応するとのこと。
頂点非活性化モデル

Holme-Kimモデルと同じように大きいCを実現するBAモデルの拡張版

頂点非活性化モデルではネットワークの成長と優先的選択に加えて、頂点の非活性化
を考慮する。

加入時点でのノードは活性化状態であり、エッジを受け取ることができる。
しかし、ある時点で非活性化され、新しいエッジを永久に受け取らないこととする。
頂点非活性化モデルの作り方
(1)BAモデル同様に、m=  個の初期ネットワークを用意。(完全グラフとする)
                    m個の頂点は活性化状態とする。
 活性化状態を●、非活性化状態を○で示す。
(2)枝をm本持った頂点    (活性化状態)をネットワークに加える。
 新しい枝は元からあるm個の非活性化状態の頂点に1本ずつつながる。
 (次数はすべてm)
(3)vのいずれかの1つを非活性化する。非活性化される確率を(6.56)式で定める。
 加入直後の頂点が非活性化される場合もある。
 γは(6.57)式で定義。次数に差がないので、非活性化される確率も差がない。
 頂点を追加後に1個を非活性化→m個の活性化状態。
 非活性化された頂点には‘(ダッシュ)をつける
(4),(5),(6)は次スライドの図で説明。
頂点非活性化モデルの作り方




   非活性化の仕組みは一種の優先的選択(次数大はなりにくい)
頂点非活性化モデルの作り方
119ページ∼121ページまでのまとめ
・時間が十分に立たないと評価が粗いので、時刻を無限大において、定常化。
・すると、活性化状態の頂点の次数分布はべき分布となる。
・非活性状態の頂点:次数分布は全体の次数分布と同一視してよい。(N→∞)
・各時刻で             だけの割合の頂点が
 「次数kをもって非活性化された頂点」の仲間に加わる。
→べき分布が出てくる。(6.65)式
・最低次数はm
・α>0、m≧1を変化させることでγ=3以外のべき指数も生成可能
頂点非活性化モデル(クラスター係数)
計算は割愛(PDFにて入手可(http://www.stat.t.u-tokyo.ac.jp/~masuda/CN_supplement.pdf))
頂点非活性化モデルのクラスター性は高い。(BAモデルは欠いていた)
しかし、平均距離がL  Nとなる。

WSモデルと同様に枝をつなぎかえを
導入するとLを小さくできる。

→実際には‥
確率1-pで頂点非活性化の成長ステップ
確率pでBAモデルの優先的選択の成長ステップ

この混合モデルは
   べき則、小さいL、大きいCの3つを同時に満たす。
階層的モデル
スケールフリー・ネットワークはしばしばフラクタルな構造を持つ。
”階層”とは呼ぶものの、連想されるピラミッド構造ではない。
ピラミッド型のネットワークは第9章に後述される。



本節で紹介する階層的モデルは下記の3つ。

・バラバシの階層的モデル
・ドロゴツェフの階層的モデル
・ラヴァスの階層的モデル
バラバシの階層的モデル
(1)1つの頂点(根)を置く。
(2)根のコピーを2つ追加し、それぞれの元の根とつなげる。
(3)現在のネットワークのコピーを2つ追加する。
 新しく追加したそれぞれのコピーの端にある頂点を根と結ぶ。
 そのような端点は各コピーに2つあり、次数は2+4=6になる。
(4)3でできたネットワークのコピーを2つ追加する。
 それぞれのコピーの端にある頂点から
 根に枝をはる。次数は8→14
(5)4をt=Tまで繰り返す
バラバシの階層的モデル

バラバシの階層モデルはスケールフリー・ネットワーク
根の次数:     
根ではない頂点はコピーでの生成なので、その後次数は増えない。

根のコピーやコピーたちの次数:
このような頂点の数:(2/3)   個ある。

(2.1.3)の「区間化」と同様に、
 tを1増やすと次数は2倍になるので、
            べき指数は、
バラバシの階層的モデルの特徴
・BAモデルとベキ指数γが異なるスケールフリー・ネットワーク
・成長モデル
・優先的選択が埋め込まれている。根がハブである。
・平均距離(L)が小さい
・クラスター係数(C)=0

BAモデルとの相違点
・決定論的作り方(≠確率モデル):対称性がよく、解析しやすい
現実の乱雑さは欠くが、そのための拡張は容易にできる。
・階層性がある。

バラバシの階層的モデルの欠点
・Cが小さいという点で現実のネットワークにそぐわない。

以降の2つはその点をクリアする。
ドロゴフツェフの階層的モデル
(1)枝で結ばれた頂点2つを置く。
(2)頂点1つに枝2本がついた「   回路」を用意し、元からある2点を結ぶ距離2の
    回路ができるようにネットワークを追加する。
(3)各枝に対して頂点1個と枝2本の   回路を追加する。
 t=1で枝が3本あったので、頂点3個と枝6本が追加された。
(4)3を時刻Tまで繰り返す。毎時刻、既存の枝と同じ数だけの新しい頂点と
 その2倍の新しい枝が追加される。
ドロゴフツェフの階層的モデル

時刻T時点での頂点の数:       個
枝の本数:

頂点の次数はその頂点がネットワークに加わった時刻だけで決まる。
(早ければ早いほど次数は大きい)

バラバシの階層モデルと同様に、                   とし、
tを消去。



このモデルもスケールフリー・ネットワーク。
さらに、クラスター性を持ち、べき則の次数分布、小さいL、大きいCももつ。
ラヴァスの階層的モデル
(1)  からなる完全グラフを作る。中心の頂点vを1つ決めておく。
(2)この完全グラフのコピー  ー1個を追加し、vのコピー以外の新しい頂点それぞれ
 と、元のvをつなぐ。頂点数は  となる。
(3)新しい枝を作らなかった頂点は、中心の仲間入りをすることにする。
(4)t=1でできたネットワークのコピー    個を追加する。
 中心に属する頂点以外の点から、大元の中心vに枝をはる。
(5)3、4を時刻Tまで繰り返す。
ラヴァスの階層的モデル

次数分布はべき分布で、             でγの調整が可能
Cも教科書にある通り、ある程度の大きさを持っている。
またLは小さい。

構造的にはフラクタルを連想するが、入れ子構造のみで自己相似的ではない。
フラクタル性を持つモデルは2005年以降に提案されている‥らしい。

実データについて階層性の有無を測るには?
→次数ごとのクラスター係数を見るとよい。
頂点ごとのクラスター係数のうち、次数がkである頂点だけについて平均したもの
C(k)は       となることが多い。
階層的モデルまとめ
階層的なネットワークでは次数kの大きい頂点は大小さまざまな部分ネットワークを
統合する役割を果たす。
部分ネットワークの位置づけ ≒ コミュニティ だが、
部分ネットワーク自体も元のネットワークに似ていることが特徴である。

階層的ネットワークでは次数の小さい頂点から出る枝は部分ネットワークに留まる。
部分ネットワークはCが大きい。小さいkに対するC(k)は大きくなりやすい。

ハブは異なるネットワークを結ぶ傾向にあるので、2つの隣接点とは直接つながって
いない可能性が高い。

バラバシの階層モデルは三角形を持たないが、他は(6.74)を満たす。
頂点非活性化モデルもこの性質を持つ。
一方、BAモデルはスケールフリーネットワークだが、C(k)はkによらない。(tに依存)
∴ スケールフリー・ネットワークは常に階層的ではない。
おまけ
最近、赤い本の増田先生が、新しい本を出されたようです!

               目次
               第1章 ネットワークで世界を読み解く
               第2章 ネットワークを分断せよ
               第3章 食うか食われるか
               第4章 人気投票のネットワーク
               第5章 三角形はなぜ強い
               第6章 流行を生み出すネットワーク
               第7章 ネットワークが孤独を救う
               第8章 職場での行動パターンを見る
               第9章 幸せになるための三角形の作り方




           レビューしたので、私の名前もあるよ★

Weitere ähnliche Inhalte

Was ist angesagt?

階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
shima o
 

Was ist angesagt? (20)

PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
PCIでプレプリでレジレポの件について
PCIでプレプリでレジレポの件についてPCIでプレプリでレジレポの件について
PCIでプレプリでレジレポの件について
 
Prml 3 3.3
Prml 3 3.3Prml 3 3.3
Prml 3 3.3
 
正準相関分析
正準相関分析正準相関分析
正準相関分析
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
 
PRML輪読#13
PRML輪読#13PRML輪読#13
PRML輪読#13
 
効率的学習 / Efficient Training(メタサーベイ)
効率的学習 / Efficient Training(メタサーベイ)効率的学習 / Efficient Training(メタサーベイ)
効率的学習 / Efficient Training(メタサーベイ)
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
優れた研究論文の書き方
優れた研究論文の書き方優れた研究論文の書き方
優れた研究論文の書き方
 
Greed is Good: 劣モジュラ関数最大化とその発展
Greed is Good: 劣モジュラ関数最大化とその発展Greed is Good: 劣モジュラ関数最大化とその発展
Greed is Good: 劣モジュラ関数最大化とその発展
 
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展
 
マルコフ連鎖モンテカルロ法入門-2
マルコフ連鎖モンテカルロ法入門-2マルコフ連鎖モンテカルロ法入門-2
マルコフ連鎖モンテカルロ法入門-2
 
決定木学習
決定木学習決定木学習
決定木学習
 
制限ボルツマンマシン入門
制限ボルツマンマシン入門制限ボルツマンマシン入門
制限ボルツマンマシン入門
 
モデル検査入門 #wacate
モデル検査入門 #wacateモデル検査入門 #wacate
モデル検査入門 #wacate
 
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
 
ユーザーサイド情報検索システム
ユーザーサイド情報検索システムユーザーサイド情報検索システム
ユーザーサイド情報検索システム
 

Andere mochten auch (6)

複雑ネットワーク 第4章 古典的なグラフ
複雑ネットワーク 第4章 古典的なグラフ複雑ネットワーク 第4章 古典的なグラフ
複雑ネットワーク 第4章 古典的なグラフ
 
複雑ネットワーク勉強会 第2章ネットワークの特徴量(後半) 20120215
複雑ネットワーク勉強会 第2章ネットワークの特徴量(後半) 20120215複雑ネットワーク勉強会 第2章ネットワークの特徴量(後半) 20120215
複雑ネットワーク勉強会 第2章ネットワークの特徴量(後半) 20120215
 
複雑ネットワーク勉強会 第6章
複雑ネットワーク勉強会 第6章複雑ネットワーク勉強会 第6章
複雑ネットワーク勉強会 第6章
 
20170207 bigdata analytics_tokyo講演資料
20170207 bigdata analytics_tokyo講演資料20170207 bigdata analytics_tokyo講演資料
20170207 bigdata analytics_tokyo講演資料
 
統計学と複雑ネットワークのちょっと深いい話 - おしゃれStatistics @銀座
統計学と複雑ネットワークのちょっと深いい話 - おしゃれStatistics @銀座統計学と複雑ネットワークのちょっと深いい話 - おしゃれStatistics @銀座
統計学と複雑ネットワークのちょっと深いい話 - おしゃれStatistics @銀座
 
Pythonで簡単ネットワーク分析
Pythonで簡単ネットワーク分析Pythonで簡単ネットワーク分析
Pythonで簡単ネットワーク分析
 

Mehr von tetsuro ito

20140614 tokyo r lt
20140614 tokyo r lt 20140614 tokyo r lt
20140614 tokyo r lt
tetsuro ito
 
20140329 tokyo r lt 「カーネルとsvm」
20140329 tokyo r lt 「カーネルとsvm」20140329 tokyo r lt 「カーネルとsvm」
20140329 tokyo r lt 「カーネルとsvm」
tetsuro ito
 
Japan.r 2013 「実ビジネスデータへのrの活用とその限界」
Japan.r 2013 「実ビジネスデータへのrの活用とその限界」Japan.r 2013 「実ビジネスデータへのrの活用とその限界」
Japan.r 2013 「実ビジネスデータへのrの活用とその限界」
tetsuro ito
 
はじパタ8章 svm
はじパタ8章 svmはじパタ8章 svm
はじパタ8章 svm
tetsuro ito
 
はじパタ2章
はじパタ2章はじパタ2章
はじパタ2章
tetsuro ito
 
第31回TokyoR LT資料
第31回TokyoR LT資料第31回TokyoR LT資料
第31回TokyoR LT資料
tetsuro ito
 
集合知プログラミング5章発表
集合知プログラミング5章発表集合知プログラミング5章発表
集合知プログラミング5章発表
tetsuro ito
 
集合知プログラミング11章
集合知プログラミング11章集合知プログラミング11章
集合知プログラミング11章
tetsuro ito
 

Mehr von tetsuro ito (20)

[Up用]rでqr
[Up用]rでqr[Up用]rでqr
[Up用]rでqr
 
20170912 data analyst meetup tokyo vol.5
20170912 data analyst meetup tokyo vol.5 20170912 data analyst meetup tokyo vol.5
20170912 data analyst meetup tokyo vol.5
 
DataOps in Moneyforward
DataOps in Moneyforward DataOps in Moneyforward
DataOps in Moneyforward
 
20161029 dots machine learning in money forward
20161029 dots machine learning in money forward20161029 dots machine learning in money forward
20161029 dots machine learning in money forward
 
20160906 bq sushi
20160906 bq sushi20160906 bq sushi
20160906 bq sushi
 
TokyoR LT Rで連続データを離散化
TokyoR LT Rで連続データを離散化TokyoR LT Rで連続データを離散化
TokyoR LT Rで連続データを離散化
 
20150531分析プラットホームとその技術(bizreach) cookpad ito #dcube_analysis
20150531分析プラットホームとその技術(bizreach) cookpad ito #dcube_analysis20150531分析プラットホームとその技術(bizreach) cookpad ito #dcube_analysis
20150531分析プラットホームとその技術(bizreach) cookpad ito #dcube_analysis
 
20150303続パタ5章後半
20150303続パタ5章後半20150303続パタ5章後半
20150303続パタ5章後半
 
PRML読書会1スライド(公開用)
PRML読書会1スライド(公開用)PRML読書会1スライド(公開用)
PRML読書会1スライド(公開用)
 
20140614 tokyo r lt
20140614 tokyo r lt 20140614 tokyo r lt
20140614 tokyo r lt
 
20140329 tokyo r lt 「カーネルとsvm」
20140329 tokyo r lt 「カーネルとsvm」20140329 tokyo r lt 「カーネルとsvm」
20140329 tokyo r lt 「カーネルとsvm」
 
20140204はじパタlt
20140204はじパタlt20140204はじパタlt
20140204はじパタlt
 
Japan.r 2013 「実ビジネスデータへのrの活用とその限界」
Japan.r 2013 「実ビジネスデータへのrの活用とその限界」Japan.r 2013 「実ビジネスデータへのrの活用とその限界」
Japan.r 2013 「実ビジネスデータへのrの活用とその限界」
 
はじパタ8章 svm
はじパタ8章 svmはじパタ8章 svm
はじパタ8章 svm
 
Tokyo R LT 20131109
Tokyo R LT 20131109Tokyo R LT 20131109
Tokyo R LT 20131109
 
はじパタ2章
はじパタ2章はじパタ2章
はじパタ2章
 
第31回TokyoR LT資料
第31回TokyoR LT資料第31回TokyoR LT資料
第31回TokyoR LT資料
 
集合知プログラミング5章発表
集合知プログラミング5章発表集合知プログラミング5章発表
集合知プログラミング5章発表
 
集合知プログラミング11章
集合知プログラミング11章集合知プログラミング11章
集合知プログラミング11章
 
集合知プログラミング勉強会キックオフMTG LT用資料
集合知プログラミング勉強会キックオフMTG LT用資料集合知プログラミング勉強会キックオフMTG LT用資料
集合知プログラミング勉強会キックオフMTG LT用資料
 

Kürzlich hochgeladen

Service-introduction-materials-misorae-leadership
Service-introduction-materials-misorae-leadershipService-introduction-materials-misorae-leadership
Service-introduction-materials-misorae-leadership
Yasuyoshi Minehisa
 

Kürzlich hochgeladen (6)

シンフォニティ株式会社(SYMPHONITY , Inc.) 会社説明・人材採用資料
シンフォニティ株式会社(SYMPHONITY , Inc.) 会社説明・人材採用資料シンフォニティ株式会社(SYMPHONITY , Inc.) 会社説明・人材採用資料
シンフォニティ株式会社(SYMPHONITY , Inc.) 会社説明・人材採用資料
 
202405_VISIONARYJAPAN_engineerteam_entrancebook(ver2.1)
202405_VISIONARYJAPAN_engineerteam_entrancebook(ver2.1)202405_VISIONARYJAPAN_engineerteam_entrancebook(ver2.1)
202405_VISIONARYJAPAN_engineerteam_entrancebook(ver2.1)
 
ストックマーク株式会社がご提供しているAnews(エーニュース)概要紹介.pdf
ストックマーク株式会社がご提供しているAnews(エーニュース)概要紹介.pdfストックマーク株式会社がご提供しているAnews(エーニュース)概要紹介.pdf
ストックマーク株式会社がご提供しているAnews(エーニュース)概要紹介.pdf
 
Service-introduction-materials-misorae-leadership
Service-introduction-materials-misorae-leadershipService-introduction-materials-misorae-leadership
Service-introduction-materials-misorae-leadership
 
20240427 zaim academy counseling lesson .pdf
20240427 zaim academy counseling lesson .pdf20240427 zaim academy counseling lesson .pdf
20240427 zaim academy counseling lesson .pdf
 
UP103シリーズ パワーコメット ユニパー スライドレールタイプ 瓦揚げ機 ウインチ
UP103シリーズ パワーコメット ユニパー スライドレールタイプ 瓦揚げ機 ウインチUP103シリーズ パワーコメット ユニパー スライドレールタイプ 瓦揚げ機 ウインチ
UP103シリーズ パワーコメット ユニパー スライドレールタイプ 瓦揚げ機 ウインチ
 

複雑ネットワーク勉強会 第6章 後半

Hinweis der Redaktion

  1. \n
  2. \n
  3. \n
  4. \n
  5. \n
  6. \n
  7. \n
  8. \n
  9. \n
  10. \n
  11. \n
  12. \n
  13. \n
  14. \n
  15. \n
  16. \n
  17. \n
  18. \n
  19. \n
  20. \n
  21. \n
  22. \n
  23. \n