SlideShare a Scribd company logo
1 of 31
DBDA Ch. 16
Metric PredictedVariable with
One Metric Predictor
1つの計量変数からの
ある計量変数の予測
東京大学
工学系研究科 技術経営戦略学専攻
丸井 淳己
(冒頭の詩:詩訳)
農協*が私への貸付を取り消すと脅してくる
もし私の農場からの生産がすぐ増えなければ。
ああ神様、動向を占うことができたらどんなにいいか、
私の皺は深くなるだろうか?運命*は尽きるのだろうか?
* agri-bankは農業銀行といったところなのだろうけど、日本だと農協がそういうこ
とをしているような。
* lineを運命と訳してみたが、これは単回帰が線形、本章では直線であることと関係
があるのか無いのかは良く分からない。
* この人が単回帰できるようになって救われるのかどうかも良く分からない。それ
こそ、どれくらい苦労するかが分かるだけだろう…切ない。
この章では
• ひとつの観測値からある観測値を予測する事を
行う
o 体重の予測を身長から
o 血圧を体重から
o 収入を教育された年数から
• これからxとyを、単純な線形モデルで表す
o yは残余値(予測モデルと実測値の差)が正規分布していると
する
• 一般化線形モデルで表すと
o 仮定:
o モデル:
o これをSimple Linear Regression(線形単回帰)と通常呼ぶ
ng a person’s weight from their
ght, or predicting their income
variable is metric and the single
etween the predicted variable, y,
distributed residual randomness
model assumes that y ∼ N(µ,τ)
312) in the first row and second
gression”.
h R and BUGS. Academic Press /
The agri-bank’s threatnin’ to revoke my lease
If my field’s production don’t rapid increase.
Oh Lord how I wish I could divine the trend,
Will my furrows deepen? and Will my line end?
In this chapter we consider situations such as predictin
height, or predicting their blood pressure from their weig
from years of education. In these situations, the predicted v
predictor is also metric. We will describe the relationship be
and predictor, x, with a simple linear model and normally d
in y. In terms of the generalized linear model (GLM), the m
with µ = β0 + β1x. This model appears in Table 14.1 (p. 3
column. This model is often referred to as “simple linear reg
Kruschke, J. K. (2010). Doing Bayesian Data Analysis: A Tutorial with
はじめに
• 既に皆さんも線形回帰は何度もやってきたと思
います
• 僕が習ってきたものは
o yとxに線形の関係があって、全てのデータは同じ分散の正
規分布によるエラーがあるとしましょう
o あ、そうすると最小二乗法が使えますね
o 偏微分すれば簡単に回帰の傾きと切片が出せますね
o R2値…Excel/統計ソフトでの計算方法…
• ここでは
o 回帰式の傾きの95%信頼区間
o あるxを与えた時のyの分布
o 外れ値の扱い
→より確率を使った議論
線形単回帰
• このモデルでは、yがxに従属であることしか
言っていない
o xがどのように生まれるか、xの値の確率分布については何
も言っていない。
o 下図でも左はxの一様分布、右は双峰性の分布。
and predictor, x, with a simple linear mode
in y. In terms of the generalized linear mod
with µ = β0 + β1x. This model appears in
column. This model is often referred to as “
Kruschke, J. K. (2010). Doing Bayesian Data Analy
Elsevier. Copyright c 2010 by John K. Kruschke
preliminary draft. If you report Bayesian analyses b
線形単回帰
• このモデルが前提としているもの
o 分布がxによらず一定であること。
o 下図で、左はあきらかにこの前提に従っていそうだが、右
はどうだろうか?x=2.5とx=7.5で分散は同じ?
o 実は右も従っている。スパースなところは正規分布の端の
方からの点が生成されないだけであって、同じ分散になっ
てる。
線形単回帰
• 現実世界において…
o xとyの間には直接の因果関係があるかもしれないし無いか
もしれない。x⇒yかもしれないし、y⇒xかもしれないし、
別の変数⇒x ∧ yかもしれないし、xとyにはなんの関係も無
いかもしれないし、今まで上げた中の組み合わせかもしれ
ない。
o 単回帰モデルで言っているのは因果関係ではなくて、yが
どのようにxに線形に関連している傾向にあるか、つまりx
からyが予測可能であるかを言ってるにすぎない。
単回帰の解釈
• 身長と体重の例
o 16.5.1のHtWtDataGerator.Rで
生成されたもの
o 身長が高いと体重が多くな
るように見える
o ある程度ばらつきがあるの
で、片方が片方を直接生じ
させたわけでは無さそう
o 実際の所大人は甘いものを
沢山食べようがダイエット
しようが体重は変えられる
一方で身長は変わらないの
だから。
単回帰
• ゴール:データを与えた時、どの回帰の線が一
番それらしいものかを決めること
o 言い換えれば、データを与えた時、β0,β1,τのどの組み合わ
せが一番信頼出来るか、ということ→ベイズ的扱いになる
• ベイズルールを使う
o 適切に事前確率を設定すれば解析的に事後確率が求まる
• 例えば前章のようにτを固定(ある点でスパイクするよ
うな分布)してβ0,β1が正規分布しているとすれば、事後
確率も正規分布となる(Bolstad 2007)
o 幸運なことに、数学的な導出法に悩む必要はなく、
BUGS/JAGSが事後確率を近似してくれる。我々は、適切な
事前分布を決めて、BUGS/JAGSが信頼出来る事後確率を生
成するかどうか、みれば良い
単回帰の階層モデリング
• このモデルでは3つのパラメータ(β0,β1,τ)がある
ので、3次元での事前同時分布が必要となる。
o ここでは単純にするために、3つのパラメータがそれぞれ
独立であることとする
o しかしそうする必要は特にない。パラメータが(逆)相関し
ているという事前分布を持つことも出来る。
o →階層モデル
単回帰の階層モデリング
• yiのパラメー
タ:μ,τ
• τの事前分布:ガ
ンマ分布(パラ
メータS,R)
• μ:β0,β1という2
つのパラメータ
がある
• βi:事前分布を正
規分布(パラメー
タ:Mi,Ti)
τ,Tは正規分布の尖り度
μ,Mは正規分布の平均
15章の図15.2と比べると良い
ほとんど同じ手法
BUGSコード
先ほどの図の矢印をコードにしたもの。
実際には仮定を入れてもっと確度のあるパラメータの値を入れる
MCMCのための正規化
• そのまま生のx,yのデータでMCMCすることも出
来る。
o 別にロジックや数式として何も間違っては居ない
• しかし回帰式の傾きと切片が相関してしまう
o そうすると、斜めの狭い領域が出来てしまい、Gibbs
SamplingやMetropolis Algorithmで非常に扱いにくい状況と
なる(下図)
• Gibbs Samplingは一回につき一つの軸上での
ジャンプだが、このような形だと、非常に細か
いジャンプが繰り返され、全ての領域を効率よ
く回れない。
• MetropolisAlgorithmだと、うまく提案分布が設
定できず、ほとんどのジャンプが棄却される結
果になりがち。
正規化の方法
• データを移動させてやれば解決できる
• 平均を引いて、標準偏差で割ればいい
o こうすると簡単に平均0、標準偏差が1のデータが作れる
• 正規化した式を元のβに戻すと…
16.2. There you can see various believable lines that go through the scatter of points.
tice that if a line has a steep slope, its intercept must be low, but if a line has a smaller
pe, its intercept must be higher. Thus, there is a trade-off in slope and intercept for the
ievable lines.
One of the main tricks used for successful execution of the MCMC sampling is stan-
dizing the data. Standardizing simply means re-scaling the data relative to their mean
standard deviation:
z(x) =
(x − Mx)
SDx
and z(y) =
y − My
SDy
(16.1)
ere Mx is the mean of the data x values and SDx is the standard deviation of the data x
ues. (Do not confuse Mx and My with the constants used in the specification of the priors
he hierarchical diagram.) It is easy to prove, using simple algebra, that the mean of the
ulting z(x) values is zero, and the standard deviation of the resulting z(x) values is one,
any initial data set.
Having used BUGS to find slope and intercept values for the standardized data, we then
d to convert the parameter values back to the original raw scales. Denote the intercept
slope for standardized data as ζ0 and ζ1 (Greek letter “zeta”), and denote the predicted
ue of y as ˆy. Then:
zˆy = ζ0 + ζ1zx by definition of the model
z(x) =
(x − Mx)
SDx
and z(y) =
y − My
SDy
(16.1)
ere Mx is the mean of the data x values and SDx is the standard deviation of the data x
ues. (Do not confuse Mx and My with the constants used in the specification of the priors
the hierarchical diagram.) It is easy to prove, using simple algebra, that the mean of the
ulting z(x) values is zero, and the standard deviation of the resulting z(x) values is one,
any initial data set.
Having used BUGS to find slope and intercept values for the standardized data, we then
ed to convert the parameter values back to the original raw scales. Denote the intercept
d slope for standardized data as ζ0 and ζ1 (Greek letter “zeta”), and denote the predicted
ue of y as ˆy. Then:
zˆy = ζ0 + ζ1zx by definition of the model
ˆy − My
SDy
= ζ0 + ζ1
(x − Mx)
SDx
from Eqn. 16.1
ˆy = ζ0SDy + My − ζ1SDyMx/ SDx
β0
+ ζ1SDy/ SDx
β1
x (16.2)
us, for every believable combination of ζ0,ζ1 values, there is a corresponding believable
正規化の結果
• 切片と傾きが関係しなくなる
前の状態では、傾きが変わると切片も
著しく変わるが、正規化すれば傾きが
変わっても、切片は0のあたりを動き回る
ので、相関が無くなる
MCMCのchainの初期化
• burn-in期間をめぐる議論
o MCMCでは、とりあえずランダム・ウォークさせて、最初
の期間をburn-in期間として捨てればいい、とされている
o だから適当な点からスタートしてもよさそう
o しかし現実には、burn-in期間がとても長くなりうる
o よって、連鎖の初期値を事後確率が大きい付近で取りたい
• MLEを使う方法
o もしデータが大きくて事前分布を支配している場合や事前
分布が分散している、または前の結果から適切な所が分か
る場合、尤度関数のピークが事後確率のピークと近くなる。
o 良さそうな候補はパタメータのMLEの場所。
o データが正規化されている場合,β0:ゼロ, β1:xとyの相関係
数(r) τ:1/(1-r2)
どれくらい傾きが大きいか
• 回帰式の傾きの分布を表したもの。左が正規化されたあ
と、右が元のデータでの分布
• 1インチ身長が増えると5~6ポンド体重が増える
• もしxがyに影響を与えているかどうか見たい場合、さき
ほどのHDIに傾き0が含まれているかどうかを見れば良い
検定に使えるか
• ベイズのモデル比較をおこなえば検定を行うこ
とは出来そうではある。一つのモデルは事前分
布が広がっていて、もうひとつは傾き0にピーク
があるもの。
o しかしこういったモデル比較はどちらがより信頼できるか
を言っているのみであって、さっきの例で言えばゼロでな
い傾きを持つモデルをより好むだけで、どの傾きが信頼出
来るか、ということについては答えない。
o 今回はベイズモデル比較をおこなうことで得られることは
尐ない。
事後確率の予測
• 線形回帰はxからyを予測することに使われる。
• 75インチの身長なら何キロくらい?
• ベイズ的アプローチで身長xと過去のデータDか
ら体重yを推定する。
• 良い近似を出す単純な方法は、信頼出来るパラ
メータのMCMCサンプルからyを生成する方法。
o β0,β1,τをサンプリングして、↓でyを生成する
yのHDIと事後確率予測350 CHAPTER 16. METRIC Y, ONE METRIC X
60 65 70 75
50100150200250300
Data with 95% HDI & Mean of Posterior Predictions
X (height in inches)
Y(weightinpounds)
+ + + + + + + + + + + + + + + + + + + + + + + +
Figure 16.6: Data points, with 95% HDIs and means of posterior predictions in y,
at selected x values. The HDIs are wider (i.e., taller) for extrapolated x values than
• 灰色のラインが
95%HDI
• ダッシュがyの事後確
率予測の平均
• 真ん中の方が灰色の
線が短く、両サイド
は大きい
• データが多いところ
より尐ないところの
ほうが信頼度が尐な
いのでHDIの範囲が大
きくなる
事後確率予測の他の使い方
• 事後確率が実際には線形になっていない場合に、
線形になっていないことが分かる
• 線形回帰のプログラムに入
れてこのような結果を得る
とする。
• データの分布はモデルから
推測されるyの分布と系統
だって違うことが分かる
• このような分析をすること
でモデルの正確性を高める
ことが出来る
外れ値と頑健な回帰
• 標準尤度関数は外れ値によって大きくねじ曲げ
られてしまう(→15章 図15.5)
o 回帰分析の場合も同じことが起きる。
o 標準尤度関数は回帰線からデータのポイントが縦方向に近
いことを要求する→尤度は標準偏差x3より離れた点に対し
て非常に小さい値になってしまうため
o よって外れ値は回帰の傾きに大きく影響を与えすぎること
がある
• 正規分布→t分布
o 正規分布はt分布における自由度(df)無限大と同じ。t分布
でdfが小さいものは、ロングテールになっている
o t分布は、データが尐ない時の不確実性を表している。ロ
ングテールになっているため、外れ値を正規分布よりは”
ありうる”値として受容する
実際の例
左:正規分布
右:t分布 df小
左の傾きは右の倍
矢印で示した外れ値
をモデルに含めてし
まうのが左、外れ値
として扱うように
なったのが右のモデ
ル。
結局どっちが正しいの?
• 状況によりけり
o dfの値が高い(=正規分布に近い)と信じるに足る理由があれ
ば左をとればいいし、そうでもないのであれば右をとれば
いい
繰返しの測定と単回帰
• 個々のデータjにそれぞれの観測値xij,yijがあった
とする。
o これらそれぞれにモデルを作ることが出きる
o これら個々が同じグループに属しているとして、グループ
レベルのパラメータを算出することを考える
• ラットに薬物(酸化鉄イオン?)を与える実験
o 肝臓での分解によって血中濃度が時系列でどのように減っ
ていくかを単回帰してみる。
o それぞれの観測結果も試行ごとに誤差がでる(いままでも
これはあった)
o それぞれのラットで減り方は異なる
o グループとしての減る割合はどれくらいか?個体差はどれ
くらいと見積もれるか?
ラットの例
• 薬物の血中濃度減り方
o Subject = ラット
o 横軸は日。どのように減っていくか
階層モデル
一番下の段が個々の
データ(yij)。それを決
めているのが個体ごと
にあるパラメータ(β0j、
β1j、τj)
2段目が個体のパラ
メータの分布。個体jの
切片・傾き・広がりパ
ラメータを全て集めた
時の分布。
この形を決めているの
が一番上の段にあるパ
ラメータ。これがグ
ループごとにあるパラ
メータと解釈できる。
広がり傾き
切片
コードのモデリング
• 矢印ごとにモデリング
結果
• 右下がグループレベルのパラメータ推定
こうすることで、個体のデータを
一緒くたにすることなく、グルー
プとしての平均と個体差の分散を
出すことができる。個体ごとの
データは尐ないのでHDIが広いが、
個体差を前スライドのようにあつ
かってグループのパラメータを推
測すると、HDIが狭くなる。
まとめ1
• xからのyの予測は、因果関係や時系列での関係
を特に意味しない。
• 線形回帰の通常のモデリングでは、すべての
データの分散が一定とする
• そうする必要はないが、大抵切片と傾きの事前
分布が正規分布をしているとする
• MCMCサンプリングを効率よくするため、yとx
のデータを正規化して、MLEを使って初期値を
入れると良い
まとめ2
• 事後確率予測はxからyを予測するのに使える。
また、モデルがデータと系統だって違うかどう
かのチェックにも使える
• 繰返しのある測定に使う事ができる。それぞれ
の個体が単回帰によるパラメータを持っていて、
グループレベルでそれらのパラメータを橋渡し
するようなパラメータを持たせれば良い
• 個々の測定値に外れ値がある場合、正規分布よ
りt分布を使うこともできる

More Related Content

What's hot

クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別Hiroshi Nakagawa
 
PRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in chargePRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in chargeJunpei Matsuda
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)Kota Mori
 
生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333Issei Kurahashi
 
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)Toshiyuki Shimono
 
さくっと線形代数
さくっと線形代数さくっと線形代数
さくっと線形代数Kota Mori
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門Miyoshi Yuya
 
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論sleepy_yoshi
 
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」Akira Asano
 

What's hot (20)

クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別
 
PRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in chargePRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in charge
 
全域木いろいろ
全域木いろいろ全域木いろいろ
全域木いろいろ
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
 
生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333
 
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
 
ベータ分布
ベータ分布ベータ分布
ベータ分布
 
PRML chapter7
PRML chapter7PRML chapter7
PRML chapter7
 
さくっと線形代数
さくっと線形代数さくっと線形代数
さくっと線形代数
 
PRML2.3.1-2.3.3
PRML2.3.1-2.3.3PRML2.3.1-2.3.3
PRML2.3.1-2.3.3
 
PRML 2.3節
PRML 2.3節PRML 2.3節
PRML 2.3節
 
PRML 8.4-8.4.3
PRML 8.4-8.4.3 PRML 8.4-8.4.3
PRML 8.4-8.4.3
 
Prml 10 1
Prml 10 1Prml 10 1
Prml 10 1
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
 
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
 
Draftall
DraftallDraftall
Draftall
 
Chapter2.3.6
Chapter2.3.6Chapter2.3.6
Chapter2.3.6
 
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
 
PRML2.1 2.2
PRML2.1 2.2PRML2.1 2.2
PRML2.1 2.2
 
Chapter11.2
Chapter11.2Chapter11.2
Chapter11.2
 

Viewers also liked

クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定Hiroshi Nakagawa
 
Doing Bayesian Data Analysis Chapter 11. Null Hypothesis Significance Testing
Doing Bayesian Data Analysis Chapter 11. Null Hypothesis Significance TestingDoing Bayesian Data Analysis Chapter 11. Null Hypothesis Significance Testing
Doing Bayesian Data Analysis Chapter 11. Null Hypothesis Significance TestingHiroki Takanashi
 
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...Koji Yoshida
 
Chapter.13: Goals, Power and Sample Size "Doing Bayesian Data Analysis: A Tu...
Chapter.13: Goals, Power and Sample Size "Doing Bayesian Data Analysis:  A Tu...Chapter.13: Goals, Power and Sample Size "Doing Bayesian Data Analysis:  A Tu...
Chapter.13: Goals, Power and Sample Size "Doing Bayesian Data Analysis: A Tu...Hajime Sasaki
 
Dbda勉強会~概要説明ochi20130803
Dbda勉強会~概要説明ochi20130803Dbda勉強会~概要説明ochi20130803
Dbda勉強会~概要説明ochi20130803Masanao Ochi
 
【DBDA 勉強会 2013 夏】Doing Bayesian Data Analysis Chapter 4: Bayes’ Rule
【DBDA 勉強会 2013 夏】Doing Bayesian Data Analysis Chapter 4: Bayes’ Rule【DBDA 勉強会 2013 夏】Doing Bayesian Data Analysis Chapter 4: Bayes’ Rule
【DBDA 勉強会 2013 夏】Doing Bayesian Data Analysis Chapter 4: Bayes’ RuleShuhei Iitsuka
 
Dbda勉強会chapter18
Dbda勉強会chapter18Dbda勉強会chapter18
Dbda勉強会chapter18Koichiro Kondo
 
Doing Bayesian Data Analysis; Chapter 14
Doing Bayesian Data Analysis; Chapter 14Doing Bayesian Data Analysis; Chapter 14
Doing Bayesian Data Analysis; Chapter 14春 根上
 
【DBDA 勉強会 2013 夏】Chapter 12: Bayesian Approaches to Testing a Point (‘‘Null’’...
【DBDA 勉強会 2013 夏】Chapter 12: Bayesian Approaches to Testing a Point (‘‘Null’’...【DBDA 勉強会 2013 夏】Chapter 12: Bayesian Approaches to Testing a Point (‘‘Null’’...
【DBDA 勉強会 2013 夏】Chapter 12: Bayesian Approaches to Testing a Point (‘‘Null’’...Shuhei Iitsuka
 
Doing Bayesian Data Analysis, Chapter 5
Doing Bayesian Data Analysis, Chapter 5Doing Bayesian Data Analysis, Chapter 5
Doing Bayesian Data Analysis, Chapter 5春 根上
 
全脳アーキテクチャ勉強会 第1回(松尾)
全脳アーキテクチャ勉強会 第1回(松尾)全脳アーキテクチャ勉強会 第1回(松尾)
全脳アーキテクチャ勉強会 第1回(松尾)Yutaka Matsuo
 

Viewers also liked (16)

Dbda勉強会
Dbda勉強会Dbda勉強会
Dbda勉強会
 
クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定
 
Doing Bayesian Data Analysis Chapter 11. Null Hypothesis Significance Testing
Doing Bayesian Data Analysis Chapter 11. Null Hypothesis Significance TestingDoing Bayesian Data Analysis Chapter 11. Null Hypothesis Significance Testing
Doing Bayesian Data Analysis Chapter 11. Null Hypothesis Significance Testing
 
Dbda chapter17
Dbda chapter17Dbda chapter17
Dbda chapter17
 
Dbda chapter15
Dbda chapter15Dbda chapter15
Dbda chapter15
 
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
 
Chapter.13: Goals, Power and Sample Size "Doing Bayesian Data Analysis: A Tu...
Chapter.13: Goals, Power and Sample Size "Doing Bayesian Data Analysis:  A Tu...Chapter.13: Goals, Power and Sample Size "Doing Bayesian Data Analysis:  A Tu...
Chapter.13: Goals, Power and Sample Size "Doing Bayesian Data Analysis: A Tu...
 
Dbda勉強会~概要説明ochi20130803
Dbda勉強会~概要説明ochi20130803Dbda勉強会~概要説明ochi20130803
Dbda勉強会~概要説明ochi20130803
 
Dbda chap7
Dbda chap7Dbda chap7
Dbda chap7
 
【DBDA 勉強会 2013 夏】Doing Bayesian Data Analysis Chapter 4: Bayes’ Rule
【DBDA 勉強会 2013 夏】Doing Bayesian Data Analysis Chapter 4: Bayes’ Rule【DBDA 勉強会 2013 夏】Doing Bayesian Data Analysis Chapter 4: Bayes’ Rule
【DBDA 勉強会 2013 夏】Doing Bayesian Data Analysis Chapter 4: Bayes’ Rule
 
Dbda勉強会chapter18
Dbda勉強会chapter18Dbda勉強会chapter18
Dbda勉強会chapter18
 
Dbda03
Dbda03Dbda03
Dbda03
 
Doing Bayesian Data Analysis; Chapter 14
Doing Bayesian Data Analysis; Chapter 14Doing Bayesian Data Analysis; Chapter 14
Doing Bayesian Data Analysis; Chapter 14
 
【DBDA 勉強会 2013 夏】Chapter 12: Bayesian Approaches to Testing a Point (‘‘Null’’...
【DBDA 勉強会 2013 夏】Chapter 12: Bayesian Approaches to Testing a Point (‘‘Null’’...【DBDA 勉強会 2013 夏】Chapter 12: Bayesian Approaches to Testing a Point (‘‘Null’’...
【DBDA 勉強会 2013 夏】Chapter 12: Bayesian Approaches to Testing a Point (‘‘Null’’...
 
Doing Bayesian Data Analysis, Chapter 5
Doing Bayesian Data Analysis, Chapter 5Doing Bayesian Data Analysis, Chapter 5
Doing Bayesian Data Analysis, Chapter 5
 
全脳アーキテクチャ勉強会 第1回(松尾)
全脳アーキテクチャ勉強会 第1回(松尾)全脳アーキテクチャ勉強会 第1回(松尾)
全脳アーキテクチャ勉強会 第1回(松尾)
 

Similar to 【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variable with One Metric Predictor

ベクトルで理解する相関係数
ベクトルで理解する相関係数ベクトルで理解する相関係数
ベクトルで理解する相関係数Satoshi MATSUURA
 
Math for neuroscience
Math for neuroscienceMath for neuroscience
Math for neuroscienceYujin Goto
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333Issei Kurahashi
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説Shiga University, RIKEN
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半koba cky
 
introductino to persistent homology and topological data analysis
introductino to persistent homology and topological data analysisintroductino to persistent homology and topological data analysis
introductino to persistent homology and topological data analysisTatsuki SHIMIZU
 
第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdf第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdfkeiodig
 
第2回DARM勉強会.preacherによるmoderatorの検討
第2回DARM勉強会.preacherによるmoderatorの検討第2回DARM勉強会.preacherによるmoderatorの検討
第2回DARM勉強会.preacherによるmoderatorの検討Masaru Tokuoka
 
【材料力学】3次元空間のひずみ (II-11 2018)
【材料力学】3次元空間のひずみ  (II-11 2018)【材料力学】3次元空間のひずみ  (II-11 2018)
【材料力学】3次元空間のひずみ (II-11 2018)Kazuhiro Suga
 
Chap12 4 appendix_suhara
Chap12 4 appendix_suharaChap12 4 appendix_suhara
Chap12 4 appendix_suharasleepy_yoshi
 
Chap12 4 appendix_suhara
Chap12 4 appendix_suharaChap12 4 appendix_suhara
Chap12 4 appendix_suharasleepy_yoshi
 
基礎からのベイズ統計学 3章(3.1~3.3)
基礎からのベイズ統計学 3章(3.1~3.3)基礎からのベイズ統計学 3章(3.1~3.3)
基礎からのベイズ統計学 3章(3.1~3.3)TeranishiKeisuke
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展Shiga University, RIKEN
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回Issei Kurahashi
 

Similar to 【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variable with One Metric Predictor (17)

ベクトルで理解する相関係数
ベクトルで理解する相関係数ベクトルで理解する相関係数
ベクトルで理解する相関係数
 
Math for neuroscience
Math for neuroscienceMath for neuroscience
Math for neuroscience
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
 
introductino to persistent homology and topological data analysis
introductino to persistent homology and topological data analysisintroductino to persistent homology and topological data analysis
introductino to persistent homology and topological data analysis
 
第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdf第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdf
 
第2回DARM勉強会.preacherによるmoderatorの検討
第2回DARM勉強会.preacherによるmoderatorの検討第2回DARM勉強会.preacherによるmoderatorの検討
第2回DARM勉強会.preacherによるmoderatorの検討
 
ロマ数16 simizut
ロマ数16 simizutロマ数16 simizut
ロマ数16 simizut
 
【材料力学】3次元空間のひずみ (II-11 2018)
【材料力学】3次元空間のひずみ  (II-11 2018)【材料力学】3次元空間のひずみ  (II-11 2018)
【材料力学】3次元空間のひずみ (II-11 2018)
 
Chap12 4 appendix_suhara
Chap12 4 appendix_suharaChap12 4 appendix_suhara
Chap12 4 appendix_suhara
 
Chap12 4 appendix_suhara
Chap12 4 appendix_suharaChap12 4 appendix_suhara
Chap12 4 appendix_suhara
 
基礎からのベイズ統計学 3章(3.1~3.3)
基礎からのベイズ統計学 3章(3.1~3.3)基礎からのベイズ統計学 3章(3.1~3.3)
基礎からのベイズ統計学 3章(3.1~3.3)
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回
 
CG2013 08
CG2013 08CG2013 08
CG2013 08
 
0712-2
0712-20712-2
0712-2
 

Recently uploaded

TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationYukiTerazawa
 
UniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptUniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptyuitoakatsukijp
 
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2Tokyo Institute of Technology
 
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ssusere0a682
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024koheioishi1
 
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ssusere0a682
 
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料Takayuki Itoh
 

Recently uploaded (7)

TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
 
UniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptUniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScript
 
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
 
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
 
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
 
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
 

【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variable with One Metric Predictor