SlideShare ist ein Scribd-Unternehmen logo
1 von 18
Downloaden Sie, um offline zu lesen
PRML読書会(第14回)
     11.4 スライスサンプリング
           2010/05/08

      発表者 : 坪坂 正志
Blog: d.hatena.ne.jp/tsubosaka
 m(dot)tsubosaka@gmail.com
スライスサンプリング
• MHアルゴリズムはステップサイズに敏感とい
  う難点がある
 – ステップサイズが小さすぎると現在状態との相関
   が消えるのが遅くなる
 – ステップサイズが大きすぎると候補点がほとんど
   棄却され非効率となる
• 分布の特徴に合わせて適切なステップサイズ
  を用いたい
    スライスサンプリング [Neal 2003]
ステップ幅について
  小さすぎると現在状態との相関が
  消えるのが遅くなる
ステップ幅について
  大きすぎると棄却率が高くなり、
  非効率となる
ステップ幅について
  分布に応じて適切なステップサイズ
  を用いたい
定式化
• 簡単のため1変数の場合を考える
 – 多変量の場合もギブスサンプリングのように各変
   数を順番にサンプリングすることによって適用で
   きる
• ������ ������ ∝ ������(������)に従う分布からサンプリングする
スライスサンプリング(アルゴリズム)
• 入力: 現在の点 ������
• 出力: 候補値 ������ ′
1. ,0, ������ ������ -の範囲から一様に������をサンプリング
2. *������ ′ : ������ ������ > ������+なる領域から一様に������ ′ をサンプリング
  1. 下図の実線部分からサンプリングする
正当性
• 前述のアルゴリズムは以下で与えられる分布


からサンプリングを行なっているのに等しい
• このとき������の周辺分布は




となるので������だけ取り出すことにより������(������)からサンプリ
ングできる
正当性


• ������(������|������)に従って������をサンプリングするには
  ������(0, ������ ������ )からサンプルすればよい
• ������(������|������)に従って������をサンプリングするには
  *������ ′ : ������ ������ > ������+なる領域から一様にサンプリン
  グすればよい
分解された分布に関して
        [Damien et al. 1999]
• ������ ������ ∝ ������ ������ ������(������)の形で書けるとき



に従う領域から一様にサンプリングすればよい
• ������を固定し、*������: ������ ������ > ������+で定義される分布の「ス
  ライス」から������(������)に比例して������をサンプリングする
• ただし、これは分布のスライスから直接サンプリ
  ングできるときに限る
離散の場合
• 離散の場合、 *������: ������ ������ > ������+となる������の領域に
  おいて������(������)に比例して������をサンプリングするの
  は容易(ex: LWLM, LDA)
• Dirichlet Processのような������が可算無限個ある
  モデルでも有限の領域で取り扱うことができ
  る[Gael et al. 2008, Walker 2007]
 – クラス数の上限を設けるようなことをしなくてよく
   なる (Truncated Gibbs sampler [Ishwaran and
   James 2001])
分布のスライスから
    直接サンプリングできないとき
• 一般には*������ ′ : ������ ������ > ������+なる領域からサンプ
  ルするのは難しい
• 現在の������の値������ (������) を含む領域,������min , ������max -か
  ら一様にサンプリングする
領域の決定方法
http://www.cs.toronto.edu/~radford/slice-aos.abstract.html より




  (b) 現在の値 x_0 を含む幅wの領域(この領域の位置はランダムに決定する)か
  ら始めて、各端点がスライスの中に入ってる限り領域を拡張する
  (c) 候補点x’はこの中から一様に選択され、それがスライスの中にあればx_1と
  なる。そうでなければx’を端点の一つとしてx_0を含み続けるよう領域が縮小され
  る
正当性
• サンプリングの順としては(z,u)->(z,u’)->(z’,u’)
  となっている
• (z,u)->(z,u’)については前述したとおり
  ,0, ������ ������ -から一様サンプリングするだけ
• (z,u’)->(z’,u’)に関してはzからz’へ行くときに
  ������ ������ ′ , ������ ������, ������′ = ������(������, ������(������)|������ ′ , ������′ )を満たすよう
  な手続きで遷移させればよい
   – ここでrはzからz’に行く際のランダムな選択の列
     である。また������はrに対する一対一でヤコビアンが
     1の写像
多変量の分布
• ギブスサンプリングのように、各変数を順番
  にサンプリングする
 – ������(������������ |������−������ )に比例する関数が計算できる必要があ
   る
• 多変量を一気にサンプルする方法もある
 – Ex Elliptical slice sampling [Murray 2010 et.al]
Elliptical slice sampling (設定)
• 多変量ガウス分布に従う潜在ベクトルf
  – ������~������(������, ������)
• 尤度関数������ ������ = ������(data|������)
  – 問題に応じて、違った値となる
                               2
     • 回帰: ������ ������������ ; ������������ , ������������ ������������ = ������������ ⋅ ������
     • 分類: ������(������������ ������������ )
Elliptical slice sampling (概要)
[Murray et al, 2010]より
                         • 現在点×に対して、auxiliary
                           variate(補助点) + を������(0, Σ)
                           からサンプルする
                         • 現在点と補助点を結ぶ楕円
                           状から区間を狭めつつ候補
                           点・をサンプリングしていく
References
• [Damien et al. 1999] Gibbs sampling for bayesian non-conjugate and
  hierarchical models by using auxiliary variagles. Journal of the Royal
  Statistical Society B, 61, 331--344
• [Gael et al. 2008] Jurgen Van Gael, Yunus Saatci, Yee Whye Teh, and Zoubin
  Ghahramani. Beam sampling for the infinite hidden markov model. In Proc.
  ICML
• [Ishwaran and James 2001] Hemant Ishwaran and Lancelot F. James. Gibbs
  sampling methods for stick-breaking priors . Journal of the American
  Statistical Assoiation, 96, 161—173
• [Murray et al. 2010] Iain Murray, Ryan Prescott Adams and David J.C.
  Mackay. Elliptical slice sampling. In Proc. AISTATS
• [Neal 2003] Radford M. Neal. Slice sampling. Annals of Statistics,31, 705--
  741
• [Walker 2007] Stephen G. Walker. Sampling the dirichlet mixture model
  with slices. Communications in Statistics: Simulation and Computation, 36,
  45---54

Weitere ähnliche Inhalte

Was ist angesagt?

PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半Ohsawa Goodfellow
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12matsuolab
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)Yoshitake Takebayashi
 
パターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データパターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データemonosuke
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2禎晃 山崎
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布Nagayoshi Yamashita
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)Takuma Yagi
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5matsuolab
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論sleepy_yoshi
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8matsuolab
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」Keisuke Sugawara
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介Taku Yoshioka
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 

Was ist angesagt? (20)

PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
 
Chapter2.3.6
Chapter2.3.6Chapter2.3.6
Chapter2.3.6
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
PRML11章
PRML11章PRML11章
PRML11章
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
 
パターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データパターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データ
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
 
PRML Chapter 14
PRML Chapter 14PRML Chapter 14
PRML Chapter 14
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8
 
2 3.GLMの基礎
2 3.GLMの基礎2 3.GLMの基礎
2 3.GLMの基礎
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 

Ähnlich wie Prml11 4

[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...Deep Learning JP
 
Large scale gan training for high fidelity natural
Large scale gan training for high fidelity naturalLarge scale gan training for high fidelity natural
Large scale gan training for high fidelity naturalKCS Keio Computer Society
 
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient DescentRyutaro Yamauchi
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説Preferred Networks
 
一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門Yu Tamura
 
反応時間データをどう分析し図示するか
反応時間データをどう分析し図示するか反応時間データをどう分析し図示するか
反応時間データをどう分析し図示するかSAKAUE, Tatsuya
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】Naoki Hayashi
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)Morpho, Inc.
 
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法Satoshi Hara
 
岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01goony0101
 
モンテカルロサンプリング
モンテカルロサンプリングモンテカルロサンプリング
モンテカルロサンプリングKosei ABE
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章Shoichi Taguchi
 
あなたの心にBridgeSampling
あなたの心にBridgeSamplingあなたの心にBridgeSampling
あなたの心にBridgeSamplingdaiki hojo
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6matsuolab
 
Let中部2012シンポスライド
Let中部2012シンポスライドLet中部2012シンポスライド
Let中部2012シンポスライドMizumoto Atsushi
 
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...Eiji Uchibe
 

Ähnlich wie Prml11 4 (20)

Car rmodel
Car rmodelCar rmodel
Car rmodel
 
Prml 10 1
Prml 10 1Prml 10 1
Prml 10 1
 
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
 
Large scale gan training for high fidelity natural
Large scale gan training for high fidelity naturalLarge scale gan training for high fidelity natural
Large scale gan training for high fidelity natural
 
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
 
一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門
 
反応時間データをどう分析し図示するか
反応時間データをどう分析し図示するか反応時間データをどう分析し図示するか
反応時間データをどう分析し図示するか
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
 
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法
 
岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01
 
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
 
モンテカルロサンプリング
モンテカルロサンプリングモンテカルロサンプリング
モンテカルロサンプリング
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章
 
あなたの心にBridgeSampling
あなたの心にBridgeSamplingあなたの心にBridgeSampling
あなたの心にBridgeSampling
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
 
強化学習6章
強化学習6章強化学習6章
強化学習6章
 
Let中部2012シンポスライド
Let中部2012シンポスライドLet中部2012シンポスライド
Let中部2012シンポスライド
 
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
 

Mehr von 正志 坪坂

KDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossingKDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossing正志 坪坂
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会正志 坪坂
 
WSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor modelWSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor model正志 坪坂
 
Deeplearning勉強会20160220
Deeplearning勉強会20160220Deeplearning勉強会20160220
Deeplearning勉強会20160220正志 坪坂
 
OnlineMatching勉強会第一回
OnlineMatching勉強会第一回OnlineMatching勉強会第一回
OnlineMatching勉強会第一回正志 坪坂
 
Tokyowebmining ctr-predict
Tokyowebmining ctr-predictTokyowebmining ctr-predict
Tokyowebmining ctr-predict正志 坪坂
 
Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計正志 坪坂
 
Contexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMiningContexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMining正志 坪坂
 
Introduction to contexual bandit
Introduction to contexual banditIntroduction to contexual bandit
Introduction to contexual bandit正志 坪坂
 
確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング正志 坪坂
 
Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)正志 坪坂
 

Mehr von 正志 坪坂 (20)

Recsys2018 unbiased
Recsys2018 unbiasedRecsys2018 unbiased
Recsys2018 unbiased
 
WSDM2018Study
WSDM2018StudyWSDM2018Study
WSDM2018Study
 
Recsys2016勉強会
Recsys2016勉強会Recsys2016勉強会
Recsys2016勉強会
 
KDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossingKDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossing
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会
 
WSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor modelWSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor model
 
Deeplearning勉強会20160220
Deeplearning勉強会20160220Deeplearning勉強会20160220
Deeplearning勉強会20160220
 
OnlineMatching勉強会第一回
OnlineMatching勉強会第一回OnlineMatching勉強会第一回
OnlineMatching勉強会第一回
 
Recsys2015
Recsys2015Recsys2015
Recsys2015
 
KDD 2015読み会
KDD 2015読み会KDD 2015読み会
KDD 2015読み会
 
Recsys2014 recruit
Recsys2014 recruitRecsys2014 recruit
Recsys2014 recruit
 
EMNLP2014_reading
EMNLP2014_readingEMNLP2014_reading
EMNLP2014_reading
 
Tokyowebmining ctr-predict
Tokyowebmining ctr-predictTokyowebmining ctr-predict
Tokyowebmining ctr-predict
 
KDD2014_study
KDD2014_study KDD2014_study
KDD2014_study
 
Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計
 
Contexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMiningContexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMining
 
Introduction to contexual bandit
Introduction to contexual banditIntroduction to contexual bandit
Introduction to contexual bandit
 
確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング
 
Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)
 
Tokyowebmining2012
Tokyowebmining2012Tokyowebmining2012
Tokyowebmining2012
 

Prml11 4

  • 1. PRML読書会(第14回) 11.4 スライスサンプリング 2010/05/08 発表者 : 坪坂 正志 Blog: d.hatena.ne.jp/tsubosaka m(dot)tsubosaka@gmail.com
  • 2. スライスサンプリング • MHアルゴリズムはステップサイズに敏感とい う難点がある – ステップサイズが小さすぎると現在状態との相関 が消えるのが遅くなる – ステップサイズが大きすぎると候補点がほとんど 棄却され非効率となる • 分布の特徴に合わせて適切なステップサイズ を用いたい スライスサンプリング [Neal 2003]
  • 6. 定式化 • 簡単のため1変数の場合を考える – 多変量の場合もギブスサンプリングのように各変 数を順番にサンプリングすることによって適用で きる • ������ ������ ∝ ������(������)に従う分布からサンプリングする
  • 7. スライスサンプリング(アルゴリズム) • 入力: 現在の点 ������ • 出力: 候補値 ������ ′ 1. ,0, ������ ������ -の範囲から一様に������をサンプリング 2. *������ ′ : ������ ������ > ������+なる領域から一様に������ ′ をサンプリング 1. 下図の実線部分からサンプリングする
  • 9. 正当性 • ������(������|������)に従って������をサンプリングするには ������(0, ������ ������ )からサンプルすればよい • ������(������|������)に従って������をサンプリングするには *������ ′ : ������ ������ > ������+なる領域から一様にサンプリン グすればよい
  • 10. 分解された分布に関して [Damien et al. 1999] • ������ ������ ∝ ������ ������ ������(������)の形で書けるとき に従う領域から一様にサンプリングすればよい • ������を固定し、*������: ������ ������ > ������+で定義される分布の「ス ライス」から������(������)に比例して������をサンプリングする • ただし、これは分布のスライスから直接サンプリ ングできるときに限る
  • 11. 離散の場合 • 離散の場合、 *������: ������ ������ > ������+となる������の領域に おいて������(������)に比例して������をサンプリングするの は容易(ex: LWLM, LDA) • Dirichlet Processのような������が可算無限個ある モデルでも有限の領域で取り扱うことができ る[Gael et al. 2008, Walker 2007] – クラス数の上限を設けるようなことをしなくてよく なる (Truncated Gibbs sampler [Ishwaran and James 2001])
  • 12. 分布のスライスから 直接サンプリングできないとき • 一般には*������ ′ : ������ ������ > ������+なる領域からサンプ ルするのは難しい • 現在の������の値������ (������) を含む領域,������min , ������max -か ら一様にサンプリングする
  • 13. 領域の決定方法 http://www.cs.toronto.edu/~radford/slice-aos.abstract.html より (b) 現在の値 x_0 を含む幅wの領域(この領域の位置はランダムに決定する)か ら始めて、各端点がスライスの中に入ってる限り領域を拡張する (c) 候補点x’はこの中から一様に選択され、それがスライスの中にあればx_1と なる。そうでなければx’を端点の一つとしてx_0を含み続けるよう領域が縮小され る
  • 14. 正当性 • サンプリングの順としては(z,u)->(z,u’)->(z’,u’) となっている • (z,u)->(z,u’)については前述したとおり ,0, ������ ������ -から一様サンプリングするだけ • (z,u’)->(z’,u’)に関してはzからz’へ行くときに ������ ������ ′ , ������ ������, ������′ = ������(������, ������(������)|������ ′ , ������′ )を満たすよう な手続きで遷移させればよい – ここでrはzからz’に行く際のランダムな選択の列 である。また������はrに対する一対一でヤコビアンが 1の写像
  • 15. 多変量の分布 • ギブスサンプリングのように、各変数を順番 にサンプリングする – ������(������������ |������−������ )に比例する関数が計算できる必要があ る • 多変量を一気にサンプルする方法もある – Ex Elliptical slice sampling [Murray 2010 et.al]
  • 16. Elliptical slice sampling (設定) • 多変量ガウス分布に従う潜在ベクトルf – ������~������(������, ������) • 尤度関数������ ������ = ������(data|������) – 問題に応じて、違った値となる 2 • 回帰: ������ ������������ ; ������������ , ������������ ������������ = ������������ ⋅ ������ • 分類: ������(������������ ������������ )
  • 17. Elliptical slice sampling (概要) [Murray et al, 2010]より • 現在点×に対して、auxiliary variate(補助点) + を������(0, Σ) からサンプルする • 現在点と補助点を結ぶ楕円 状から区間を狭めつつ候補 点・をサンプリングしていく
  • 18. References • [Damien et al. 1999] Gibbs sampling for bayesian non-conjugate and hierarchical models by using auxiliary variagles. Journal of the Royal Statistical Society B, 61, 331--344 • [Gael et al. 2008] Jurgen Van Gael, Yunus Saatci, Yee Whye Teh, and Zoubin Ghahramani. Beam sampling for the infinite hidden markov model. In Proc. ICML • [Ishwaran and James 2001] Hemant Ishwaran and Lancelot F. James. Gibbs sampling methods for stick-breaking priors . Journal of the American Statistical Assoiation, 96, 161—173 • [Murray et al. 2010] Iain Murray, Ryan Prescott Adams and David J.C. Mackay. Elliptical slice sampling. In Proc. AISTATS • [Neal 2003] Radford M. Neal. Slice sampling. Annals of Statistics,31, 705-- 741 • [Walker 2007] Stephen G. Walker. Sampling the dirichlet mixture model with slices. Communications in Statistics: Simulation and Computation, 36, 45---54