SlideShare ist ein Scribd-Unternehmen logo
1 von 51
多重代入法と
マルコフ連鎖モンテカルロ法
2016/2/22
宜保光一郎
はじめに
• 多重代入法(MI)をマルコフ連鎖モンテカルロ法
(MCMC)の観点から俯瞰してみたいと思います。
• まずMCMCの概略からスタートして、MIに入ります
• MIに関して、少しごちゃごちゃしてしまいました..
Notation
• ボルド体はベクトル・行列を示す
• Θ, :パラメータ
• y: データ、応答変数
• p(): 引数の確率分布

MCMCとは何の目的で使われるの
か?
• 端的に言うと、
• 「解析的に解けない積分をシミュレーションで
計算する方法」
• 統計学で、期待値と分散の計算をするには積
分を解かないといけない場面が多い
MCMCとは
• マルコフ連鎖モンテカルロ法
=
• モンテカルロ積分 + マルコフ連鎖
• 一体何をしているの??
モンテカルロ積分
• ある積分Hに、確率変数xの確率分布p(x)をかませよう
• ここで、x1, x2, x3,…を確率分布p(x)から独立に抽出した標本と
すると、大数の法則より
• つまり、確率分布p(x)から独立して多くのサンプルが得られ
れば、直接積分を解かなくても、漸近解が得られる。
• これをモンテカルロ積分という。
( )
( ) ( ) ( ) ( ) [ ( )]
( )
( )
, ( )
( )
p
k x
H k x dx p x dx h x p x dx E h x
p x
k x
where h x
p x
   

  
1
1
( ) ,
n
F
i
i
h x H as n
n 
  
モンテカルロ積分:例
• そうすると、扇形の面積はドロップし
た全ての標本の数の中の赤印の割
合で近似できると直感的にわかる
• 右図の例では、100個ドロップしたも
ののうち、80個が赤印。よって
• S ≒ 80/100=0.8
• ドロップした数を増やせば増やすほ
ど近似の精度は高くなる
• X2+y2=1 の円のうちx,y軸が[0,1]までの扇形の面積Sを考えてみよう
• 右図に示すように範囲[0,1]の一様分布から独立かつランダムにサン
プルした値をドロップしていく。
• そして、円の内部に落ちた標本に赤印をつけていく
確率分布からのサンプリング
• モンテカルロ積分を行うためには、確率分布
から独立してサンプリングできなければなら
ないが、これは容易でないことが多い。
• 解決策→マルコフ連鎖の性質を使う
• マルコフ連鎖を定常分布(stationary
distribution)がp(x)となるように構成できれば
サンプリングが可能になる。
マルコフ連鎖
• 状態推移の確率、例えばパラメータΘの推移確率
pr(.|.)を持つマルコフ連鎖からサンプリングすること
は次のように表すことができる
• t+1回目の推移はt回目以前の状態に依存しない。
→これがマルコフ連鎖
 1 ( )
~ ( | ), 0,1,2...
t t
pr t  

(0)
 ( )t
 ( 1)t
 
マルコフ連鎖の例
• このマルコフ連鎖を推移していったときにその分布
がどうなるか見てみよう。
• 10000回iterationする
• また初期値を変えると分布はどうなるか?
( 1) ( )
~ (0.2 , 1.0)t t
N 
10000回のシミュレーション
初期値によらず、大体似たような分布になっていると分かる
マルコフ連鎖の例
• 定常分布は正規分布になることは明らか
• 定常分布はtに依らない分布なので
( 1) ( )
( 1) ( )
~ (0.2 , 1.0)
0.2 , ~ (0, 1.0)
t t
t t
N
N
 
   



 
( 1) ( ) ( )
( 1) ( ) 2 ( )
[ ] [ ] 0.2 [ ]
[ ] 0
[ ] [ ] 0.2 [ ] 1
[ ] 1.04
~ (0, 1.04)
t t t
t t t
E E E
E
Var Var Var independently
Var
N
  

  




 
 
  
 
Q
定常分布(stationary distribution)
• 定常分布とはiteration; tに依らない、つまり初期値
にも依らない分布
• この定常分布を目的とする確率分布p(x)として構成
できれば、十分iterationしたあとの、xは独立にp(x)
からサンプリングした値といえる。
• 先の例ではΘ(t=9000), Θ(t=9020),Θ(t=9080)などは、
N(0,1.04)から独立にサンプルした値といえる。
• モンテカルロ積分に使える!ということ。
定常分布へ収束するために
• マルコフ連鎖の全てが定常分布へ収束する
わけではない。
• そのためにはある正則条件が必要(今回それ
には触れず)
• この正則条件を満たす代表的な方法が、い
わゆるメトロポリス法やギブスサンプラーとよ
ばれるアルゴリズムとなる。
Gibbs sampler (single component)
• 定常分布を得るための方法の一つである
(0) (0) (0) (0)
1 2
( 1) ( ) ( )
1 1 2
( 1) ( 1) ( ) ( )
2 2 1 3
( 1) ( 1) ( 1) ( )
3 3 1 2 4
1. ; ( , ,.., )
2. ( | ,.., )
( | , ,.., )
( | , , .
p
t t t
p
t t t t
p
t t t t
Step Setinitial parameter
Step sampledrawn from p
sampledrawn from p
sampledrawn from p
  
   
    
    

 
  
θ
( )
( 1) ( 1) ( 1)
1
( ) ( ) ( )
1 1
., )
..................., ( ,.., )
3. 2
,
( ,.., ) ( ,.., )
t
p
t t t
p
t t t
p p
and make
Step loop step
Then after enough iterations
converges to a draw from p

 
   
  


θ
θ
Joint distribution
補足:Bayesian
• P(Θ|..)とは一体何か?
• 頻度論的には、これは1 or 0 である。なぜなら
頻度論ではパラメータはある真の値と考えて
いるので、それは”あるかないか”に過ぎない
わけである。
• しかしベイジアンではパラメータも確率変数、
つまり確率分布を持っていて、確率的に変動
すると考える。(ベイズの世界ではすべてが確
率変数!)
Bayesian estimation
• ベイズの定理
• 我々は普通、データyからパラメータΘがどんなもの
(分布)であるかを知りたい。
• 分布の形が分かればおのずと代表値、ばらつき(信
用区間)が分かる。
( | ) ( )
( | )
( )
,
( | ): , ( ): , ( | ):
( ):
p y p
p y
p y
where
p y posterior p prior p y likelihood
p y normalizing factor
 

  

Bayesian estimation
• 前述の式のうちp(y)は定数になり、直接事後分布の
形状に影響しないため、外すと
• 尤度はパラメータが与えられたときのデータの分布
である。つまりこれは、実際に得られたデータの分
布と考えられる。
• ベイジアン推定の考え方の基本は「もともと持ってい
る事前情報に、手に入れたデータを適応して、改善
し、事後情報を得る」ということ
( | ) ( ) ( | )p y p p y  
事後分布 事前分布 尤度
多重代入法へ
多重代入法(MI)
• 多重代入法は、多くの亜流がありますが、古典的な
Rubin流の多重代入法を紹介します。亜流が多いと
いうことは、理論としては完熟していないことを意味
しています。
• 議論となる最大のポイントは「如何にして事後予測
分布から補完させるか」ということにつきます。
Imputation phase→ Analytic phase→ Pool phase
Imputation phase→ Analytic phase→ Pool phase
表記
• Yobs: 観察されている値、特にボルド体はベクトルで
観察されているデータ全体を表す
• Ymis: 欠測している値、特にボルド体は欠測している
データ全体を表す
• R: 欠測のインジケーター {0,1}
• Example
• Ymis={Ymis
(1), Ymis
(2),..,Ymis
(m)} ,mは欠測数
データに欠測があると..
• 手に入ったデータがYobsしかない状況
• ベイズ推定で、パラメータの事後分布をもとめたい
• モンテカルロ積分の立場からみると、p(Ymis|Yobs,R)
の分布から、YmisをD個サンプリングできて、それを
Ymis
(1),..,Ymis
(d)とすると
( | , ) ( , | , )
( | , ) ( | , )
obs mis obs mis
mis obs mis obs mis
p p d
p p d




θ Y R θ Y Y R Y
θ Y Y Y Y R Y
完全データの
事後分布
事後予測分布
( )
1
1
( | , ) ( | , )
d
i
obs mis obs
i
p p
d 
 θ Y R θ Y Y
MAR assumption;
“ignorability”
• MAR(missing at random)はMIを実行するうえで重要
な仮定
• 欠測のメカニズムが観測されているデータに依存し
て発生している。(観測されていないデータには依存
しない)
• 数式では がいえる
• これで、今後の議論では確率変数Rについては無視
して議論できる(欠測のプロセスをモデル化する必
要がない)
( | , ) ( | )mis obs mis obsp pY Y R Y Y
多重代入法
• 前述の過程を具体的に追っていくと
• P(Θ|Yobs)を求めたいとき、ある欠測を予測する分布
p(Ymis|Yobs)からサンプリングして、欠測部分に値を
出現させる(補完)。そうしてできた完全データがd個
できる(Yobs, Ymis
(d))。
• そうしてモンテカルロ積分をすると、パラメーターの
事後分布が得られ、その平均、分散も求まるという
寸法
• これを多重代入法と呼ぶ
• 最大の問題は上記の下線部分をどう実行するか
Step-by-step
• 多重代入法を段階を追って考えてみる
• まず、あるデータの同時分布は多重正規分布とする。
また、変数をY=(Yobs,Ymis)として欠測が存在し、MAR
とする。
• パラメータΘ=(μ、∑)
• (補足:頻度論ではアウトカム以外は普通確率変数としないが、ベイジア
ンではすべて確率変数なので、データは同時分布としてあらわされる)
11 1
( , | , ) ( | , ) exp( ( ) ( ))
2(2 )
T
mis obs k
p p


    Y Y μ Σ Y μ Σ Y μ Σ Y μ
Σ
Imputation step
• まず、次の事後予測分布p(Ymis|Θ(0), Yobs)からYmis
(1)
をサンプリングし、Ymisを埋めて完全データを作る
• データの同時分布が多変量正規分布と考えている
ので、適当に初期パラメーターΘ(0)=(μ(0)、∑(0))を決め
る。
• (Θ(0), Yobs)が所与として、どうやって事後予測分布
p(Ymis|Θ(0), Yobs)を作るか?分かりやすいのは回帰
モデルを立てることかもしれない。→regression-
based imputation
I-step: regression-based imp.
• 次のIQとJob performanceのデータ
• 欠測部分を予測分布から求める
IQ Job Performance
78 NA
84 NA
84 NA
85 NA
87 NA
91 NA
92 NA
94 NA
94 NA
96 NA
99 7
105 10
105 11
106 15
108 10
112 10
113 12
115 14
118 16
134 12
I-step: regression-based imp.
(0) (0)
1 1
(0) (0)
2 2
:
* ,
~ ( , )
~ ( , )
, ,
~ *
obs obspart
mis mispart
regression
JP a b IQ
JP N
IQ N
getthe parameter distributions
of a b
JP a b IQ

 
 


  

  
観察されている部分で
回帰式を作って
欠測している部分を回
帰式から発生させる
(0) (0)
~ ( | , )mis mis obspY Y θ Y
P-step: regression-based imp.
• 次に、完全データ(Ymis
(0), Yobs)より事後分布p(Θ|
Ymis
(0), Yobs)が求まる
(0) (0)
(0) 1
(0) 1
( | , ) ( , | ) ( )
,
( | , , ) ~ Wishart ( 1, )
( | , , ) ~ ultivariate Normal( , )
,where SS means sample sumof squares
mis obs mis obs
mis obs
mis obs
p p p
and in general
p n SS
p M n




θ Y Y Y Y θ θ
Σ μ Y Y
Σ Y Y μ Σ
Imputation step: regression-based
• こうしてiterationを繰り返すと、事後予測分布
p(Ymis|Θ(0), Yobs)からYmis
(t)がサンプルできる。
(Gelman,2004)
(これらは独立とみなすことができるであろう)
• こうしてYmis
(t)の中からd個選びだし、d個の完
全データセットを作成できる
Regression-based V.S.
Data Augmentation
• Regression-based imputation
• 欠測のタイプが”モノトーン”の場
合のみに有効
• 同じ方法でデータがbinaryのとき
はロジスティック回帰などを使っ
て事後予測ができる。
• モノトーンでない場合は?(これ
が普通)
↓
• Data Augmentation≒MCMC !!
http://www.psych.york
u.ca/lab/psy6140/lectu
res/missing614-2x2.pdf
予測分布からのサンプリング
• MCMCに落とし込むときの課題は、予測分布
p(Ymis|Yobs)が定常分布になるようにマルコフ
連鎖をいかに構成するかにある。
• そこで、分布p(Ymis,Θ|Yobs)のGibbs samplerを
考えてみる
• シミュレートする変数が2つあるのでtwo-
component Gibbs samplerともいう(Liu1998)
Data Augmentation
(Dempster et al. 1977)
• 次のiterationを繰り返すと、
• が得られる。(regression-basedはこれの特殊な場合)
• Regression-based よりも、乱数の発生が困難!→コ
ンピューターの力を大いに借りる。
• この方法は、Ymisを更新してデータがどんどん大きく
なっていくので Data Augmentation という。
( ) ( )
( 1) ( )
~ ( | , )
~ ( | , )
t t
mis mis obs
t t
mis obs
p
p
Y Y θ Y
θ θ Y Y
Two-component Gibbs sampler
(Liu,1994; Schafer,1997)
• 前述したサンプルは最終的に以下の定常分布に収
束することが分かっている。
• これで欲しかった予測事後分布p(Ymis|Yobs)からのサ
ンプルが得られた。
• このdata augmentation はGibbs samplerの見地から
も正当化され、Liuは”two-component Gibbs
sampler”と呼称している。
( 1)
( 1)
~ ( | )
~ ( | )
t
obs
t
mis mis obs
p
p


θ θ Y
Y Y Y
Two-component Gibbs sampler,
Summary
( ) ( )
( 1) ( )
( 1)
( 1)
simulate these:
~ ( | , )
~ ( | , )
..........
Then,we get thesamplesdrawnfromthefollowingposterior
~ ( | )
~ ( | )
t t
mis obs
t t
mis mis obs
t
obs
t
mis mis obs
p
p
p
p



θ θ Y Y
Y Y θ Y
θ θ Y
Y Y Y
補足
• 歴史的には、data augmentationの理論的な
根拠はEMアルゴリズムであった
• その後、これがMCMCの一種であるということ
が分かった。
Rubin’s rule
• では、推定のために平均と分散を導出する
• は各完全データの推定値
( )
1
( )
1
( )
1
1
( | ) ( | , )
[ | ] ( | )
1
( | , )
1
[ | , ]
d
i
obs mis obs
i
obs obs
d
i
mis obs
i
d
i
mis obs
i
p p
d
E p d
p d
d
E
d











θ Y θ Y Y
θ Y θ θ Y θ
θ θ Y Y θ
θ Y Y
( )
[ | , ]i
mis obsE θ Y Y
Rubin’s rule
• 分散:
• ただしBは有限のデータセットによる誤差の補正とし
て次のようにする
1
1
[ | ] [ ( | , ) | ] [ ( | , ) | ]
1
( | , )
1
[ ( | , ) ( | )][ ( | , ) ( | )]
1
obs mis obs obs mis obs obs
d
mis obs
i
d
T
mis obs obs mis obs obs
i
Var E Var Var E
Var
d
E E E E
d
V B


 
 
 

 


θ Y θ Y Y Y θ Y Y Y
θ Y Y
θ Y Y θ Y θ Y Y θ Y
1
[ | ] (1 )obsVar V B
d
  θ Y
正規性
• 事前分布P(Θ)は無情報分布、尤度P(Yobs|Θ)も多変
量正規分布を考えているので、事後分布P(Θ|Yobs)も
多変量正規分布と考えられるよって95%信用区間は
次のように与えられる。検定も同様に可
• しかし、これは無限のデータセットでの仮定なので、
small sampleの場合、z検定をt検定に置換するのと
同じ理屈でt検定ができる。自由度は以下で与えら
れている(Rubin,1987)
(1 )( | ) ( | )obs obsE z Var Y Y
1
( 1)[1 ]
(1 )
V
d
d B
 
  

MIの実践における諸問題
Imputation model ≠
analytic model
• Rubin’s rule で統合する際のパラメータはデータが多
変量正規分布としたときは、データの平均ベクトルμ
と分散共分散行列∑であったが、実際の解析フェー
ズでは完全データからの回帰係数などのパラメータ
について知りたいことが多いかもしれない。
• 代入モデル(p(Ymis|Yobs)からの発生)と、解析モデル
(解析フェーズでロジスティック回帰分析など)が異な
る(使用する変数が食い違うなど)場合、統合は
Rubin’s rule で良いか?
Inferential congeniality(Meng,1994)
• 結論からいうと、「代入モデル≠解析モデルであって
もプラクティカルにはRubin’s ruleで統合してもよい」
ことになっている
• しかし、数理的には”congeniality”という条件が必要
とされている(Meng,1994)
実践的側面:仮定の整理
• Rubin 流の古典的な proper MI においては以
下のような大きな仮定を置いている
• ①MAR assumption(欠測のプロセスのモデル
化が不要)、②imputation modelにおける
データのjoint distributionが多変量正規分布
MAR assumption?
• デザインの段階で欠測がどのように生じるか予測し
ておき、欠測メカニズムを説明する補助変数
(auxiliary variable)となりうるものも測定しておく
• 感度分析として、MNARメカニズムでの感度分析を
考慮する。
• これが難しいならコンプリートケース研究の結果と
比較する(必須)。MARであればコンプリートケース研
究との大きな相違は無いはず。
同時分布が多変量正規分布?
• imputation modelにおけるデータの同時分布が多
変量正規分布であることは実務上はまれであろう
(カテゴリーなどが入るのが普通)
• いくつかのシミュレーション研究では、カテゴリーな
どが入っていても、無理やり多変量正規分布と考え
て実行しても大きなバイアスは入らないとしているも
のもある。(正規化はしてもしなくても良い?)
• しかし、このときも”丸め”の問題が生じたり、実践的
な解析には困難を伴うことが多い
MCMCは本当に収束している?
• MCMCは非常にフレキシブルだが、収束して
いるかどうかはとても重要(収束していなけれ
ば定常分布といえない)。
• Data augmentationの際に収束しているかの
視覚的チェックは必要。
参考文献
• Little, R. J. A., & Rubin, D. B.
(2002). Statistical analysis with
missing data. Hoboken, N.J: Wiley.
• Enders, C. K. (2010). Applied
missing data analysis. New York:
Guilford Press.
• Molenberghs, G., Fitzmaurice, G.,
Kenward, M. G., Tsiatis, A. A., and
Verbeke, G. (2014). Handbook of
Missing Data Methodology.
Chapman & Hall/CRC Press.
http://as.wiley.
com/WileyCDA
/WileyTitle/pr
oductCd-
0471183865.ht
ml
http://ww
w.applied
missingda
ta.com/
https://www.
crcpress.com
/Handbook-
of-Missing-
Data-
Methodology
/
参考文献
• 丹後俊郎 , Taeko Becque (2011).ベイジアン統計解
析の実際 ―WinBUGSを利用して― 朝倉書店
• 伊庭幸人, その他 (2005). 計算統計 II ― マルコフ連
鎖モンテカルロ法とその周辺 ― 岩波書店
• 岩崎学 (2004). 統計的データ解析のための数値計
算法入門 (統計ライブラリー) 朝倉書店
参考文献
• Tanner, M. A., & Wong, W. H.. (1987). The Calculation
of Posterior Distributions by Data Augmentation.
Journal of the American Statistical Association,
82(398), 528–540.
• Zhang, P.. (2003). Multiple Imputation: Theory and
Method. International Statistical Review / Revue
Internationale De Statistique, 71(3), 581–592.
• Meng, XL. (1994). Multiple-Imputation Inferences
with Uncongenial Sorces of input. Statistical Science,
9(4), 538-573.

Weitere ähnliche Inhalte

Was ist angesagt?

階層ベイズと自由エネルギー
階層ベイズと自由エネルギー階層ベイズと自由エネルギー
階層ベイズと自由エネルギーHiroshi Shimizu
 
効果測定入門 Rによる傾向スコア解析
効果測定入門  Rによる傾向スコア解析効果測定入門  Rによる傾向スコア解析
効果測定入門 Rによる傾向スコア解析aa_aa_aa
 
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-Shiga University, RIKEN
 
Stanの便利な事後処理関数
Stanの便利な事後処理関数Stanの便利な事後処理関数
Stanの便利な事後処理関数daiki hojo
 
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRDaisuke Yoneoka
 
ベイズファクターとモデル選択
ベイズファクターとモデル選択ベイズファクターとモデル選択
ベイズファクターとモデル選択kazutantan
 
第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)Yoshitake Takebayashi
 
ベイズ統計モデリングと心理学
ベイズ統計モデリングと心理学ベイズ統計モデリングと心理学
ベイズ統計モデリングと心理学Shushi Namba
 
質的変数の相関・因子分析
質的変数の相関・因子分析質的変数の相関・因子分析
質的変数の相関・因子分析Mitsuo Shimohata
 
「統計的学習理論」第1章
「統計的学習理論」第1章「統計的学習理論」第1章
「統計的学習理論」第1章Kota Matsui
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)Yoshitake Takebayashi
 
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布についてhoxo_m
 
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理するHiroshi Shimizu
 
ロジスティック回帰分析の入門 -予測モデル構築-
ロジスティック回帰分析の入門 -予測モデル構築-ロジスティック回帰分析の入門 -予測モデル構築-
ロジスティック回帰分析の入門 -予測モデル構築-Koichiro Gibo
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定Akira Masuda
 

Was ist angesagt? (20)

MICの解説
MICの解説MICの解説
MICの解説
 
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー階層ベイズと自由エネルギー
階層ベイズと自由エネルギー
 
効果測定入門 Rによる傾向スコア解析
効果測定入門  Rによる傾向スコア解析効果測定入門  Rによる傾向スコア解析
効果測定入門 Rによる傾向スコア解析
 
Stan超初心者入門
Stan超初心者入門Stan超初心者入門
Stan超初心者入門
 
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-
 
Stanの便利な事後処理関数
Stanの便利な事後処理関数Stanの便利な事後処理関数
Stanの便利な事後処理関数
 
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRブートストラップ法とその周辺とR
ブートストラップ法とその周辺とR
 
ベイズファクターとモデル選択
ベイズファクターとモデル選択ベイズファクターとモデル選択
ベイズファクターとモデル選択
 
第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)
 
ベイズ統計モデリングと心理学
ベイズ統計モデリングと心理学ベイズ統計モデリングと心理学
ベイズ統計モデリングと心理学
 
質的変数の相関・因子分析
質的変数の相関・因子分析質的変数の相関・因子分析
質的変数の相関・因子分析
 
Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門
 
「統計的学習理論」第1章
「統計的学習理論」第1章「統計的学習理論」第1章
「統計的学習理論」第1章
 
階層ベイズとWAIC
階層ベイズとWAIC階層ベイズとWAIC
階層ベイズとWAIC
 
因果推論の基礎
因果推論の基礎因果推論の基礎
因果推論の基礎
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
 
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について
 
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する
 
ロジスティック回帰分析の入門 -予測モデル構築-
ロジスティック回帰分析の入門 -予測モデル構築-ロジスティック回帰分析の入門 -予測モデル構築-
ロジスティック回帰分析の入門 -予測モデル構築-
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 

Ähnlich wie マルコフ連鎖モンテカルロ法と多重代入法

幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなしToru Imai
 
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldNaoki Hayashi
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門Miyoshi Yuya
 
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場Daisuke Yoneoka
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statisticsKohta Ishikawa
 
K030 appstat201203 2variable
K030 appstat201203 2variableK030 appstat201203 2variable
K030 appstat201203 2variablet2tarumi
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回Issei Kurahashi
 
PRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in chargePRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in chargeJunpei Matsuda
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章Takushi Miki
 
モンテカルロ法と情報量
モンテカルロ法と情報量モンテカルロ法と情報量
モンテカルロ法と情報量Shohei Miyashita
 
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則koba cky
 
20130223_集計・分析の基礎@アンケート研究会
20130223_集計・分析の基礎@アンケート研究会20130223_集計・分析の基礎@アンケート研究会
20130223_集計・分析の基礎@アンケート研究会Takanori Hiroe
 
K070 点推定
K070 点推定K070 点推定
K070 点推定t2tarumi
 
カステラ本勉強会 第三回
カステラ本勉強会 第三回カステラ本勉強会 第三回
カステラ本勉強会 第三回ke beck
 
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
[The Elements of Statistical Learning]Chapter8: Model Inferennce and AveragingYu Otsuka
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へZansa
 
アンサンブル学習
アンサンブル学習アンサンブル学習
アンサンブル学習Hidekazu Tanaka
 

Ähnlich wie マルコフ連鎖モンテカルロ法と多重代入法 (20)

幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-old
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
Maeshori missing
Maeshori missingMaeshori missing
Maeshori missing
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
 
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statistics
 
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
 
K030 appstat201203 2variable
K030 appstat201203 2variableK030 appstat201203 2variable
K030 appstat201203 2variable
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回
 
PRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in chargePRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in charge
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章
 
モンテカルロ法と情報量
モンテカルロ法と情報量モンテカルロ法と情報量
モンテカルロ法と情報量
 
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則
 
20130223_集計・分析の基礎@アンケート研究会
20130223_集計・分析の基礎@アンケート研究会20130223_集計・分析の基礎@アンケート研究会
20130223_集計・分析の基礎@アンケート研究会
 
K070 点推定
K070 点推定K070 点推定
K070 点推定
 
カステラ本勉強会 第三回
カステラ本勉強会 第三回カステラ本勉強会 第三回
カステラ本勉強会 第三回
 
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
 
アンサンブル学習
アンサンブル学習アンサンブル学習
アンサンブル学習
 

Mehr von Koichiro Gibo

生存時間分析数理の基礎
生存時間分析数理の基礎生存時間分析数理の基礎
生存時間分析数理の基礎Koichiro Gibo
 
Covid19対策本部の作り方と走らせ方公開用
Covid19対策本部の作り方と走らせ方公開用Covid19対策本部の作り方と走らせ方公開用
Covid19対策本部の作り方と走らせ方公開用Koichiro Gibo
 
分割時系列解析(ITS)の入門
分割時系列解析(ITS)の入門分割時系列解析(ITS)の入門
分割時系列解析(ITS)の入門Koichiro Gibo
 
データベース時代の疫学研究デザイン
データベース時代の疫学研究デザインデータベース時代の疫学研究デザイン
データベース時代の疫学研究デザインKoichiro Gibo
 
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論Koichiro Gibo
 
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-Rubinの論文(の行間)を読んでみる-傾向スコアの理論-
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-Koichiro Gibo
 

Mehr von Koichiro Gibo (6)

生存時間分析数理の基礎
生存時間分析数理の基礎生存時間分析数理の基礎
生存時間分析数理の基礎
 
Covid19対策本部の作り方と走らせ方公開用
Covid19対策本部の作り方と走らせ方公開用Covid19対策本部の作り方と走らせ方公開用
Covid19対策本部の作り方と走らせ方公開用
 
分割時系列解析(ITS)の入門
分割時系列解析(ITS)の入門分割時系列解析(ITS)の入門
分割時系列解析(ITS)の入門
 
データベース時代の疫学研究デザイン
データベース時代の疫学研究デザインデータベース時代の疫学研究デザイン
データベース時代の疫学研究デザイン
 
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
 
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-Rubinの論文(の行間)を読んでみる-傾向スコアの理論-
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-
 

マルコフ連鎖モンテカルロ法と多重代入法