SlideShare a Scribd company logo
1 of 34
Download to read offline
第4章	
  GLMのモデル選択	
  
-­‐AICとモデルの予測の良さ-­‐	
担当者:	
  takano	
  	
  
Twi3er:	
  @mtknnktm	
第4回 「データ解析のための統計モデリング入門」読書会	
  
#みどりぼん	
1
第4章の目的	
データはひとつ、モデルはたくさん	
  
•  あるデータに対して考えることができる統計モデルは
無数にありうる	
  
•  どんなモデルを採用したらいいのか?	
  
–  あてはまりの良いモデル?	
  
–  モデルを複雑化させればいくらでもあてはまりはよくでき
る(が理解できない)	
  
•  いい統計モデルとはなにか?	
  
–  データ解析の目的達成のためにどうやってモデル選択を
したらいいか?	
  
•  データ解析の目的	
  
–  観測される現象の背後にあるしくみを知るため	
  
–  そのために現象を近似する統計モデルの構築をしたい	
  
4.0,節	
  4.1節	
 2
例題:	
  あるデータに対する5つのモデル	
4.2節	
 3	
y ~ Poisson(exp(β1))
y ~ Poisson(exp(β2 f + β1))
y ~ Poisson(exp(β3x + β1))
y ~ Poisson(exp(β2 f + β3x + β1))
y ~ Poisson(exp(β1x1 + β2 x2 +!))
A.	
  
B.	
  
C.	
  
D.	
  
E.	
y:	
  種子数,	
  x:	
  体サイズ,	
  f:	
  施肥処理の有無
例題:	
  あるデータに対する5つのモデル	
•  パラメータ数k=1 切片のみ	
  
•  体のサイズxも施肥処理fも影響しないモデル	
  
•  一定モデル	
  /	
  Nullモデルと呼ぶ	
  
•  多分、一番あてはまりが悪い	
4.2節	
 4	
y:	
  種子数,	
  x:	
  体サイズ,	
  f:	
  施肥処理の有無	
A.	
  
B.	
  
C.	
  
D.	
  
E.	
※イメージ	
y ~ Poisson(exp(β1))
y ~ Poisson(exp(β2 f + β1))
y ~ Poisson(exp(β3x + β1))
y ~ Poisson(exp(β2 f + β3x + β1))
y ~ Poisson(exp(β1x1 + β2 x2 +!))
例題:	
  あるデータに対する5つのモデル	
•  パラメータ数k=2	
  	
  
•  施肥処理fが影響するモデル	
4.2節	
 5	
y:	
  種子数,	
  x:	
  体サイズ,	
  f:	
  施肥処理の有無	
施肥処理あり	
施肥処理なし	
A.	
  
B.	
  
C.	
  
D.	
  
E.	
※イメージ	
y ~ Poisson(exp(β1))
y ~ Poisson(exp(β2 f + β1))
y ~ Poisson(exp(β3x + β1))
y ~ Poisson(exp(β2 f + β3x + β1))
y ~ Poisson(exp(β1x1 + β2 x2 +!))
例題:	
  あるデータに対する5つのモデル	
•  パラメータ数k=2	
  
•  体のサイズxが影響するモデル	
4.2節	
 6	
y:	
  種子数,	
  x:	
  体サイズ,	
  f:	
  施肥処理の有無	
A.	
  
B.	
  
C.	
  
D.	
  
E.	
※イメージ	
y ~ Poisson(exp(β1))
y ~ Poisson(exp(β2 f + β1))
y ~ Poisson(exp(β3x + β1))
y ~ Poisson(exp(β2 f + β3x + β1))
y ~ Poisson(exp(β1x1 + β2 x2 +!))
例題:	
  あるデータに対する5つのモデル	
•  パラメータ数k=2	
  
•  体のサイズxも施肥処理fも影響するモデル	
4.2節	
 7	
y:	
  種子数,	
  x:	
  体サイズ,	
  f:	
  施肥処理の有無	
施肥処理あり	
施肥処理なし	
A.	
  
B.	
  
C.	
  
D.	
  
E.	
※イメージ	
y ~ Poisson(exp(β1))
y ~ Poisson(exp(β2 f + β1))
y ~ Poisson(exp(β3x + β1))
y ~ Poisson(exp(β2 f + β3x + β1))
y ~ Poisson(exp(β1x1 + β2 x2 +!))
例題:	
  あるデータに対する5つのモデル	
•  パラメータ数k=データ数	
•  各データに1対1で対応したパラメータであては
めるモデル	
  
•  フルモデルと呼ぶ	
  
4.2節	
 8	
y:	
  種子数,	
  x:	
  体サイズ,	
  f:	
  施肥処理の有無	
A.	
  
B.	
  
C.	
  
D.	
  
E.	
※イメージ	
y ~ Poisson(exp(β1))
y ~ Poisson(exp(β2 f + β1))
y ~ Poisson(exp(β3x + β1))
y ~ Poisson(exp(β2 f + β3x + β1))
y ~ Poisson(exp(β1x1 + β2 x2 +!))
で、結局どれがいいの?	
9
あてはまりに関する量を計算してみる	
モデル	
 k	
 最大対数尤度	
  
log	
  L*	
逸脱度	
  
D=-­‐2	
  log	
  L*	
残差逸脱度	
  
D	
  -­‐	
  min(D)	
A:	
  一定	
 1	
 -­‐237.6	
 475.3	
 89.5	
B:	
  f	
 2	
 -­‐237.6	
 475.3	
 89.5	
C:	
  x	
 2	
 -­‐235.4	
 470.8	
 85.0	
D:	
  x+f	
 3	
 -­‐235.3	
 470.6	
 84.8	
E:	
  フル	
 100	
 -­‐192.9	
 385.8	
 0.0	
4.3節	
 10
あてはまりに関する量を計算してみる	
モデル	
 k	
 最大対数尤度	
  
log	
  L*	
逸脱度	
  
D=-­‐2	
  log	
  L*	
残差逸脱度	
  
D	
  -­‐	
  min(D)	
A:	
  一定	
 1	
 -­‐237.6	
 475.3	
 89.5	
B:	
  f	
 2	
 -­‐237.6	
 475.3	
 89.5	
C:	
  x	
 2	
 -­‐235.4	
 470.8	
 85.0	
D:	
  x+f	
 3	
 -­‐235.3	
 470.6	
 84.8	
E:	
  フル	
 100	
 -­‐192.9	
 385.8	
 0.0	
4.3節	
 11	
•  モデルのデータに対するあてはまりの良さ	
  
(2章参照)	
  
あてはまりに関する量を計算してみる	
モデル	
 k	
 最大対数尤度	
  
log	
  L*	
逸脱度	
  
D=-­‐2	
  log	
  L*	
残差逸脱度	
  
D	
  -­‐	
  min(D)	
A:	
  一定	
 1	
 -­‐237.6	
 475.3	
 89.5	
B:	
  f	
 2	
 -­‐237.6	
 475.3	
 89.5	
C:	
  x	
 2	
 -­‐235.4	
 470.8	
 85.0	
D:	
  x+f	
 3	
 -­‐235.3	
 470.6	
 84.8	
E:	
  フル	
 100	
 -­‐192.9	
 385.8	
 0.0	
4.3節	
 12	
•  モデルのデータに対するあてはまりの悪さ	
  
•  “−最大対数尤度”	
  と比例	
  
あてはまりに関する量を計算してみる	
モデル	
 k	
 最大対数尤度	
  
log	
  L*	
逸脱度	
  
D=-­‐2	
  log	
  L*	
残差逸脱度	
  
D	
  -­‐	
  min(D)	
A:	
  一定	
 1	
 -­‐237.6	
 475.3	
 89.5	
B:	
  f	
 2	
 -­‐237.6	
 475.3	
 89.5	
C:	
  x	
 2	
 -­‐235.4	
 470.8	
 85.0	
D:	
  x+f	
 3	
 -­‐235.3	
 470.6	
 84.8	
E:	
  フル	
 100	
 -­‐192.9	
 385.8	
 0.0	
4.3節	
 13	
•  モデルのデータに対する相対的なあてはまりの悪さ	
  
•  対象のモデルの逸脱度から最も逸脱度の低くなるフルモ
デルを引いた値	
  
•  Rの表記	
  
•  一定モデルの残差逸脱度:	
  Null	
  Deviance	
  
•  対象のモデルの残差逸脱度:	
  Residual	
  Deviance	
  
	
  
あてはまりの良いモデルを選んでみる	
モデル	
 k	
 最大対数尤度	
  
log	
  L*	
逸脱度	
  
D=-­‐2	
  log	
  L*	
残差逸脱度	
  
D	
  -­‐	
  min(D)	
A:	
  一定	
 1	
 -­‐237.6	
 475.3	
 89.5	
B:	
  f	
 2	
 -­‐237.6	
 475.3	
 89.5	
C:	
  x	
 2	
 -­‐235.4	
 470.8	
 85.0	
D:	
  x+f	
 3	
 -­‐235.3	
 470.6	
 84.8	
E:	
  フル	
 100	
 -­‐192.9	
 385.8	
 0.0	
4.3節	
 14	
•  最もあてはまりの良いモデルはフルモデル	
  
•  データ1つ1つに対して、パラメータを1つ1つ割り
当てたモデル	
  
→ 体のサイズの影響も施肥処理の効果も全くわからない	
  
→ たまたま得られた観測データへの特殊化をしてるだけ	
  
 (もう一回データ取ってきたら多分全然当てはまらない)	
  
困った	
15
そこでAIC	
16
AIC	
モデル	
 k	
 最大対数尤度	
  
log	
  L*	
逸脱度	
  
D=-­‐2	
  log	
  L*	
残差逸脱度	
  
D	
  -­‐	
  min(D)	
AIC	
  
D+2k	
A:	
  一定	
 1	
 -­‐237.6	
 475.3	
 89.5	
 477.3	
B:	
  f	
 2	
 -­‐237.6	
 475.3	
 89.5	
 479.3	
C:	
  x	
 2	
 -­‐235.4	
 470.8	
 85.0	
 474.8	
D:	
  x+f	
 3	
 -­‐235.3	
 470.6	
 84.8	
 476.6	
E:	
  フル	
 100	
 -­‐192.9	
 385.8	
 0.0	
 585.8	
4.3節	
 17	
•  AIC	
  =	
  -­‐2{最大対数尤度	
  –	
  パラメータ数}=D+2k	
  
•  つまり、	
  
•  あてはまりがよい(逸脱度Dが小さい)	
  
•  パラメータ数が少ない	
  
というモデルがAIC最小になる	
  
•  あてはまりの良さではなく予測の良さの指標	
  
そのAICでモデルを選ぶと	
モデル	
 k	
 最大対数尤度	
  
log	
  L*	
逸脱度	
  
D=-­‐2	
  log	
  L*	
残差逸脱度	
  
D	
  -­‐	
  min(D)	
AIC	
  
D+2k	
A:	
  一定	
 1	
 -­‐237.6	
 475.3	
 89.5	
 477.3	
B:	
  f	
 2	
 -­‐237.6	
 475.3	
 89.5	
 479.3	
C:	
  x	
 2	
 -­‐235.4	
 470.8	
 85.0	
 474.8	
D:	
  x+f	
 3	
 -­‐235.3	
 470.6	
 84.8	
 476.6	
E:	
  フル	
 100	
 -­‐192.9	
 385.8	
 0.0	
 585.8	
4.3節	
 18	
•  AIC最小になるモデルは	
  
体のサイズが種子数に影響するモデル	
  
•  なんかそれっぽい!	
  
予測の良さっ何?	
  
なんで予測の良さで	
  
選んでいいの?	
  
なんで予測の良さが	
  
AIC=-­‐2(log	
  L*-­‐k) なの?	
19
AICのための例題	
•  体のサイズも施肥処理も影響しない植物の
観測データ	
  
– 「50個体を観測」×200回実施	
  
•  比較する2つのモデル	
  
 A:	
  
 B:	
  	
  
•  この2つはβ=0と置くと、AとBは同じ	
  
– BはAを含んでいるような場合、	
  
BはAをネストしている (nested)	
  と言う	
  
	
  
4.4節	
 20	
こっちが正解	
y ~ Poisson(exp(β1))
y ~ Poisson(exp(β2 x + β1))
AICのための例題	
•  体のサイズも施肥処理も影響しない植物の
観測データ	
  
– 「50個体を観測」×200回実施	
  
•  比較する2つのモデル	
  
 A:	
  
 B:	
  	
  
•  この2つはβ=0と置くと、AとBは同じ	
  
– BはAを含んでいるような場合、	
  
BはAをネストしている (nested)	
  と言う	
  
	
  
4.4節	
 21	
y ~ Poisson(exp(β1))
y ~ Poisson(exp(β2 x + β1))
まずこちらのモデルの	
  
予測の良さを評価する
予測の良さ:	
  平均対数尤度	
4.5節	
 22	
(本来わからない)	
  
真の統計モデル	
50個体の種子を調査×200	
パラメータを最尤推定→	
・・・	
β1,logL*
β1,logL*
β1,logL*
・・・	
y ~ Poisson(exp(β1))
1つのデータについて最尤推定
してモデルを求める×200回	
  
予測の良さ:	
  平均対数尤度	
4.5節	
 23	
(本来わからない)	
  
真の統計モデル	
50個体の種子を調査×200	
パラメータを最尤推定→	
・・・	
β1,logL*
β1,logL*
β1,logL*
・・・	
•  平均対数尤度	
  
–  ある観測データに対して求めたモデルが、他の観測データに対してど
の程度あてはまるか? の指標	
  
•  つまり、真の統計モデルから生成される未知のデータに対するあ
てはまりの良さ「予測の良さ」を表していると言える	
  
E(logL*
)
y ~ Poisson(exp(β1))
それぞれ求めたモデルを	
  
他の199個のデータで対数尤度を評価	
  
それの平均値:	
  平均対数尤度
それぞれの最大対数尤度は平均対数尤度から
どのぐらいずれているのか計算してみる	
4.5節	
 24	
(本来わからない)	
  
真の統計モデル	
50個体の種子を調査×200	
・・・	
b = logL*
− E(logL*
) 平均対数尤度は200回分を
平均して擬似的に求める	
このbをバイアスと呼ぶ	
パラメータを最尤推定→	
β1,logL*
β1,logL*
β1,logL*
・・・	
y ~ Poisson(exp(β1))
それぞれの最大対数尤度は平均対数尤度から
どのぐらいずれているのか計算してみる	
4.5節	
 25	
(本来わからない)	
  
真の統計モデル	
50個体の種子を調査×200	
・・・	
b = logL*
− E(logL*
)
パラメータを最尤推定→	
β1,logL*
β1,logL*
β1,logL*
・・・	
E(logL*
) = logL*
− b
b	
  はだいたい1	
y ~ Poisson(exp(β1))
それぞれの最大対数尤度は平均対数尤度から
どのぐらいずれているのか計算してみる	
4.5節	
 26	
(本来わからない)	
  
真の統計モデル	
50個体の種子を調査×200	
・・・	
b = logL*
− E(logL*
)
パラメータを最尤推定→	
β1,logL*
β1,logL*
β1,logL*
・・・	
E(logL*
) = logL*
− b = logL*
−1
b	
  はだいたい1	
?	
y ~ Poisson(exp(β1))
それぞれの最大対数尤度は平均対数尤度から
どのぐらいずれているのか計算してみる	
4.5節	
 27	
(本来わからない)	
  
真の統計モデル	
50個体の種子を調査×200	
・・・	
b = logL*
− E(logL*
)
パラメータを最尤推定→	
β1,logL*
β1,logL*
β1,logL*
・・・	
E(logL*
) = logL*
− b = logL*
−1
b	
  はだいたい1	
?	
パラメータ数	
  k	
  と同じ?	
y ~ Poisson(exp(β1))
それぞれの最大対数尤度は平均対数尤度から
どのぐらいずれているのか計算してみる	
4.5節	
 28	
(本来わからない)	
  
真の統計モデル	
50個体の種子を調査×200	
・・・	
b = logL*
− E(logL*
)
パラメータを最尤推定→	
β1,logL*
β1,logL*
β1,logL*
・・・	
y ~ Poisson(exp(β x + b))
b	
  はだいたい1	
実は、最尤推定するパラメータをk個もつモデル	
  
の平均対数尤度の推定量は	
  log	
  L*	
  -­‐	
  k	
  であると	
  
解析的かつ一般的に導出できる	
  
※	
  前述の数理統計学の教科書などを参照のこと	
E(logL*
) = logL*
− b = logL*
−1 ?	
パラメータ数	
  k	
  と同じ?
平均対数尤度は求まった。AICは?	
•  平均対数尤度	
  
•  AICは平均対数尤度に-­‐2を掛けただけ	
  
•  この章の前半で実施したモデル選択方法 	
  
「AICが最小のモデルを選ぶ」は	
  
平均対数尤度が最大になるモデルを選択してい
たということ同じ	
  
–  つまり、AIC最小のモデル=良い予測をするモデル	
  
4.5節	
 29	
E(logL*
) = logL*
− k
AIC = −2(logL*
− k)
モデル	
 k	
 最大対数尤度	
  
log	
  L*	
逸脱度	
  
D=-­‐2	
  log	
  L*	
残差逸脱度	
  
D	
  -­‐	
  min(D)	
AIC	
  
D+2k	
一定(真のモデル)	
 1	
 -­‐120.1	
 240.2	
 50.8	
 242.1	
x	
 2	
 -­‐120.1	
 240.1	
 50.7	
 244.1
ちょっと待って	
•  バイアス	
  b の平均は確かにパラメータ
数	
  k	
  とだいたい同じだったが、ばらつき
が大きい	
  
	
  
•  こんなにばらつきの大きな値を使ってい
いの?	
4.5節	
 30
ネスト関係にある2つのモデルを比較	
4.5節	
 31	
(本来わからない)	
  
真の統計モデル	
50個体の種子を調査×200	
・・・	
2つのモデルでパラメータを最尤推定	
logL*
1 − logL*
2
y ~ Poisson(exp(β1x + b))
y ~ Poisson(exp(b))
y ~ Poisson(exp(b))
最大対数尤度の差	
E(logL*
1)− E(logL*
2 )
平均対数尤度(推定値?)の差
ネスト関係にある2つのモデルを比較	
4.5節	
 32	
(本来わからない)	
  
真の統計モデル	
50個体の種子を調査×200	
・・・	
2つのモデルでパラメータを最尤推定	
logL*
1 − logL*
2
y ~ Poisson(exp(β1x + b))
y ~ Poisson(exp(b))
y ~ Poisson(exp(b))
最大対数尤度の差	
E(logL*
1)− E(logL*
2 )
平均対数尤度(推定値?)の差	
バイアスのばらつきは大きいが、	
  
・最大対数尤度	
  
・平均対数尤度	
  
の差のばらつきは小さい
なので、両モデルのバイアスの差の
ばらつきも小さい	
•  したがって、ネスト関係にあるモデル間の相
対的な比較をする分には大丈夫そう	
4.5節	
 33
まとめ	
•  良いモデルとは?	
  
– あてはまりがいいだけではダメ	
  
– 良い予測をするモデルを良いモデルとしよう	
  
•  予測の良いモデルを選択するにはどうしたら
いいか?	
  
– AICが最小になるモデルを選べばよい	
  
•  AICとは –2(最大対数尤度	
  –	
  パラメータ数)	
  
→ 平均対数尤度の推定値×	
  –2	
  
•  ただしAICを使ったら、真のモデルに近いモデ
ルが選ばれるかというと、そうではない	
  
4.6節	
 34

More Related Content

What's hot

比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
 
マーケティングサイエンス徹底入門と実践Part2
マーケティングサイエンス徹底入門と実践Part2マーケティングサイエンス徹底入門と実践Part2
マーケティングサイエンス徹底入門と実践Part2
宏喜 佐野
 
Amosを使ったベイズ推定
Amosを使ったベイズ推定Amosを使ったベイズ推定
Amosを使ったベイズ推定
考司 小杉
 

What's hot (20)

Rで確認しながら解く統計検定2級
Rで確認しながら解く統計検定2級Rで確認しながら解く統計検定2級
Rで確認しながら解く統計検定2級
 
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
 
マーケティングサイエンス徹底入門と実践Part2
マーケティングサイエンス徹底入門と実践Part2マーケティングサイエンス徹底入門と実践Part2
マーケティングサイエンス徹底入門と実践Part2
 
2 7.一般化線形混合モデル
2 7.一般化線形混合モデル2 7.一般化線形混合モデル
2 7.一般化線形混合モデル
 
データ解析のための統計モデリング入門10章前半
データ解析のための統計モデリング入門10章前半データ解析のための統計モデリング入門10章前半
データ解析のための統計モデリング入門10章前半
 
How to use in R model-agnostic data explanation with DALEX & iml
How to use in R model-agnostic data explanation with DALEX & imlHow to use in R model-agnostic data explanation with DALEX & iml
How to use in R model-agnostic data explanation with DALEX & iml
 
潜在クラス分析
潜在クラス分析潜在クラス分析
潜在クラス分析
 
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー階層ベイズと自由エネルギー
階層ベイズと自由エネルギー
 
Amosを使ったベイズ推定
Amosを使ったベイズ推定Amosを使ったベイズ推定
Amosを使ったベイズ推定
 
Cmdstanr入門とreduce_sum()解説
Cmdstanr入門とreduce_sum()解説Cmdstanr入門とreduce_sum()解説
Cmdstanr入門とreduce_sum()解説
 
Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)
 
関数データ解析の概要とその方法
関数データ解析の概要とその方法関数データ解析の概要とその方法
関数データ解析の概要とその方法
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
あなたの心にBridgeSampling
あなたの心にBridgeSamplingあなたの心にBridgeSampling
あなたの心にBridgeSampling
 
2 3.GLMの基礎
2 3.GLMの基礎2 3.GLMの基礎
2 3.GLMの基礎
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
DARM勉強会第3回 (missing data analysis)
DARM勉強会第3回 (missing data analysis)DARM勉強会第3回 (missing data analysis)
DARM勉強会第3回 (missing data analysis)
 
質的変数の相関・因子分析
質的変数の相関・因子分析質的変数の相関・因子分析
質的変数の相関・因子分析
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
Stan超初心者入門
Stan超初心者入門Stan超初心者入門
Stan超初心者入門
 

Viewers also liked

Viewers also liked (6)

データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章
 
Kobe.R #18: 本の紹介: 通称「緑本」
Kobe.R #18: 本の紹介: 通称「緑本」Kobe.R #18: 本の紹介: 通称「緑本」
Kobe.R #18: 本の紹介: 通称「緑本」
 
「予測にいかす統計モデリングの基本」勉強会 第一章
「予測にいかす統計モデリングの基本」勉強会 第一章「予測にいかす統計モデリングの基本」勉強会 第一章
「予測にいかす統計モデリングの基本」勉強会 第一章
 
時系列データ分析とPython
時系列データ分析とPython時系列データ分析とPython
時系列データ分析とPython
 
1 6.変数選択とAIC
1 6.変数選択とAIC1 6.変数選択とAIC
1 6.変数選択とAIC
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
 

Similar to みどりぼん読書会 第4章

パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
sleipnir002
 
ロジスティック回帰分析の入門 -予測モデル構築-
ロジスティック回帰分析の入門 -予測モデル構築-ロジスティック回帰分析の入門 -予測モデル構築-
ロジスティック回帰分析の入門 -予測モデル構築-
Koichiro Gibo
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tatsuya Tojima
 

Similar to みどりぼん読書会 第4章 (20)

Model seminar shibata_100710
Model seminar shibata_100710Model seminar shibata_100710
Model seminar shibata_100710
 
Hyperoptとその周辺について
Hyperoptとその周辺についてHyperoptとその周辺について
Hyperoptとその周辺について
 
カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
 
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
 
Tokyo r7 sem_20100724
Tokyo r7 sem_20100724Tokyo r7 sem_20100724
Tokyo r7 sem_20100724
 
6 Info Theory
6 Info Theory6 Info Theory
6 Info Theory
 
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
 
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則
 
実践データ分析基礎
実践データ分析基礎実践データ分析基礎
実践データ分析基礎
 
ロジスティック回帰分析の入門 -予測モデル構築-
ロジスティック回帰分析の入門 -予測モデル構築-ロジスティック回帰分析の入門 -予測モデル構築-
ロジスティック回帰分析の入門 -予測モデル構築-
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statistics
 
能動学習による多関係データセットの構築
能動学習による多関係データセットの構築能動学習による多関係データセットの構築
能動学習による多関係データセットの構築
 
Yamadai.Rデモンストレーションセッション
Yamadai.RデモンストレーションセッションYamadai.Rデモンストレーションセッション
Yamadai.Rデモンストレーションセッション
 
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法
 
Rm20140702 11key
Rm20140702 11keyRm20140702 11key
Rm20140702 11key
 
NagoyaStat#7 StanとRでベイズ統計モデリング(アヒル本)4章の発表資料
NagoyaStat#7 StanとRでベイズ統計モデリング(アヒル本)4章の発表資料NagoyaStat#7 StanとRでベイズ統計モデリング(アヒル本)4章の発表資料
NagoyaStat#7 StanとRでベイズ統計モデリング(アヒル本)4章の発表資料
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
 

More from Masanori Takano

論文紹介 Explaining the prevalence, scaling and variance of urban phenomena
論文紹介 Explaining the prevalence, scaling and variance of urban phenomena論文紹介 Explaining the prevalence, scaling and variance of urban phenomena
論文紹介 Explaining the prevalence, scaling and variance of urban phenomena
Masanori Takano
 
ソーシャル系Webサービスのデータを用いた社会科学 資料
ソーシャル系Webサービスのデータを用いた社会科学 資料ソーシャル系Webサービスのデータを用いた社会科学 資料
ソーシャル系Webサービスのデータを用いた社会科学 資料
Masanori Takano
 
論文紹介: What’s in a like- attitudes and behaviors around receiving likes on fac...
論文紹介: What’s in a like- attitudes and behaviors around receiving likes on fac...論文紹介: What’s in a like- attitudes and behaviors around receiving likes on fac...
論文紹介: What’s in a like- attitudes and behaviors around receiving likes on fac...
Masanori Takano
 

More from Masanori Takano (20)

書籍「計算社会科学入門」第9章 統計モデリング
書籍「計算社会科学入門」第9章 統計モデリング書籍「計算社会科学入門」第9章 統計モデリング
書籍「計算社会科学入門」第9章 統計モデリング
 
WWWにおける社会科学
WWWにおける社会科学WWWにおける社会科学
WWWにおける社会科学
 
サイバーエージェントにおける計算社会科学研究
サイバーエージェントにおける計算社会科学研究サイバーエージェントにおける計算社会科学研究
サイバーエージェントにおける計算社会科学研究
 
Webとメディアと社会的分断 @ WWW論文読み会
Webとメディアと社会的分断 @ WWW論文読み会Webとメディアと社会的分断 @ WWW論文読み会
Webとメディアと社会的分断 @ WWW論文読み会
 
Analysis of the Changes in Listening Trends of a Music Streaming Service
Analysis of the Changes in Listening Trends of a Music Streaming ServiceAnalysis of the Changes in Listening Trends of a Music Streaming Service
Analysis of the Changes in Listening Trends of a Music Streaming Service
 
WWW論文読み会 発表資料: Computational Health セッション
WWW論文読み会 発表資料: Computational Health セッションWWW論文読み会 発表資料: Computational Health セッション
WWW論文読み会 発表資料: Computational Health セッション
 
ソーシャルビッグデータ・オープンデータによる社会構造変化の発見
ソーシャルビッグデータ・オープンデータによる社会構造変化の発見ソーシャルビッグデータ・オープンデータによる社会構造変化の発見
ソーシャルビッグデータ・オープンデータによる社会構造変化の発見
 
仮想社会におけるソーシャルサポート効果の検証: ピグパーティにおけるいじめ相談
仮想社会におけるソーシャルサポート効果の検証: ピグパーティにおけるいじめ相談仮想社会におけるソーシャルサポート効果の検証: ピグパーティにおけるいじめ相談
仮想社会におけるソーシャルサポート効果の検証: ピグパーティにおけるいじめ相談
 
論文紹介: Tweetment effects on the tweeted experimentally reducing racist harass...
論文紹介: Tweetment effects on the tweeted  experimentally reducing racist harass...論文紹介: Tweetment effects on the tweeted  experimentally reducing racist harass...
論文紹介: Tweetment effects on the tweeted experimentally reducing racist harass...
 
サイバーエージェントにおける計算社会科学
サイバーエージェントにおける計算社会科学サイバーエージェントにおける計算社会科学
サイバーエージェントにおける計算社会科学
 
論文紹介 Explaining the prevalence, scaling and variance of urban phenomena
論文紹介 Explaining the prevalence, scaling and variance of urban phenomena論文紹介 Explaining the prevalence, scaling and variance of urban phenomena
論文紹介 Explaining the prevalence, scaling and variance of urban phenomena
 
社会関係の数と親密さのトレードオフが社会構造に与える影響
社会関係の数と親密さのトレードオフが社会構造に与える影響社会関係の数と親密さのトレードオフが社会構造に与える影響
社会関係の数と親密さのトレードオフが社会構造に与える影響
 
ヒトと社会を理解するための計算社会科学(社会情報システム学シンポジウム 基調講演資料)
ヒトと社会を理解するための計算社会科学(社会情報システム学シンポジウム 基調講演資料)ヒトと社会を理解するための計算社会科学(社会情報システム学シンポジウム 基調講演資料)
ヒトと社会を理解するための計算社会科学(社会情報システム学シンポジウム 基調講演資料)
 
野良ビッグデータへのお誘い
野良ビッグデータへのお誘い野良ビッグデータへのお誘い
野良ビッグデータへのお誘い
 
Lightweight Interactions for Reciprocal Cooperation in a Social Network Game
Lightweight Interactions for Reciprocal Cooperation in a Social Network GameLightweight Interactions for Reciprocal Cooperation in a Social Network Game
Lightweight Interactions for Reciprocal Cooperation in a Social Network Game
 
サラリーマンのための計算社会科学
サラリーマンのための計算社会科学サラリーマンのための計算社会科学
サラリーマンのための計算社会科学
 
社会関係の強さに基づく社会的グルーミング戦略の適応性
社会関係の強さに基づく社会的グルーミング戦略の適応性社会関係の強さに基づく社会的グルーミング戦略の適応性
社会関係の強さに基づく社会的グルーミング戦略の適応性
 
ソーシャル系Webサービスのデータを用いた社会科学 資料
ソーシャル系Webサービスのデータを用いた社会科学 資料ソーシャル系Webサービスのデータを用いた社会科学 資料
ソーシャル系Webサービスのデータを用いた社会科学 資料
 
論文紹介: What’s in a like- attitudes and behaviors around receiving likes on fac...
論文紹介: What’s in a like- attitudes and behaviors around receiving likes on fac...論文紹介: What’s in a like- attitudes and behaviors around receiving likes on fac...
論文紹介: What’s in a like- attitudes and behaviors around receiving likes on fac...
 
データにまつわるWeb業界の仕事について
データにまつわるWeb業界の仕事についてデータにまつわるWeb業界の仕事について
データにまつわるWeb業界の仕事について
 

みどりぼん読書会 第4章