SlideShare ist ein Scribd-Unternehmen logo
1 von 17
統計学勉強会

  第四回
 @kingqwert
ちょっと前回の復習
ロジット分析
• 生存確率q、ロジット関数
ポワソンモデル
• データが離散値、ゼロ以上の範囲、上限なし、平均=分
  散

• ある個体iにおいて種子数がy_iである確率p(y_i|λ_i)がポ
  ワソン分布に従う




• リンク関数は対数リンク関数
  – Logλ=(線形予測子)
RでGLM

     基本は、
     Result <- glm(formula, data, family, link)



               確率分布               乱数生成            family     リンク関数
離散             二項分布               rbinom()        binomial   logit
               ポワソン分布             rpois()         poisson    log
               負の二項分布             rnbinom()       glm.nb関数   log
連続             ガンマ分布              rgamma()        gamma      log?
               正規分布               rnorm()         gaussian   identity
今回の内容は、実際の使い方、解釈の仕方 etc



•   係数の解釈(ポワソン、ロジット)
•   統計量 (Wald統計量、逸脱度deviance)
•   尤度比検定
•   GLMにおける残差

あたりが今日のメイン
係数の解釈

• ロジット分析
 – オッズ比=exp(線形予測子)
 – リンク関数=ロジットリンク
 – Ex. 病気になるリスクはexp(1.95)=7倍



• ポワソン回帰
 –   平均=exp(線形予測子)
 –   リンク関数=logリンク
 –   Xが1単位上昇すると平均種子数はexp(β2)だけ上昇する
 –   平均種子数はポワソン分布のパラメータ
係数の解釈2


• 線形回帰モデル
 – リンク関数=identityリンク
 – E(Y)=線形予測子
 – Xが1単位上昇するとYの平均がβだけ上昇する。
指数型分布族の平均と分散
• 指数分布族
   – Θ:正準パラメーター
   – Φ:dispersion パラメーター


• 対数尤度 l(θ,Φ;y)=log f(y; θ,Φ)
   – わりと有名な関係式


• 期待値と分散
GLMにおけるパラメタ推定

• 正準パラメーターにθ=g(μ)=βxを代入




• 対数尤度関数をβに関してargmax
 – 対数尤度 l(θ,Φ;y)=log f(y; θ,Φ)
スコア関数
• 対数尤度関数をβに関して1回微分(この式を0として解
  いていく)



• 直感的理解
 – 残差Y-μを0とするような推定量
   • 1次のモーメントのみアジャスト
 – 分散の逆数で重み付け
   • 一般に、分散関数は平均μの関数
 – スカラーからパラメーターの次元に変換するために勾配ベクト
   ルをかける
Βに対する推測
• Βの最尤推定量とその分散(フィッシャー情報量の逆行
  列)に基づく
 – フィッシャー情報量:スコア関数の二次のモーメント=対数尤
   度関数の二階微分の期待値



 –   これらを用いて
 –   Wald検定・信頼区間
 –   スコア検定・信頼区間
 –   尤度比検定・信頼区間
Wald検定
• あるパラメーターβ_k
• 帰無仮説: H0: β_k=0
• Wald検定
  – 検定統計量             ~ 標準正規分布

  – ただし、分母はフィッシャー情報行列の逆行列のdiag要素


• Wald信頼区間
残差逸脱度 Deviance
• モデルの当てはまり:尤度比統計量
 – 今のモデルと飽和モデル(Full model)との比較
   • -2log [仮定したモデルでの最大対数尤度 – 飽和モデルでの最大対数尤度]
   • =



• これにdispersionパラメーターをかけたもの=残差逸脱度


• 正規分布のもとでの残差逸脱度=残差平方和と一致
• 残差逸脱度は残差平方和の正規分布以外の結果変数への
  一般化
 – 二項分布、ポワソン分布ではφ=1
尤度比検定
• 2つのネストしたモデル
  – M0: E(Y)=μ0=β0+β1X
  – M1: E(Y)=μ1=β0+β1X+β2X*X
  – この時、D(M0)≥D(M1)
     • 逸脱度は必ず小さいモデルのほうが大きい


• M0とM1の比較(β2=0の検定)
GLMにおける残差
• 線形モデルと違い、二項分布やポワソン分布は分散が平
  均に依存
 – 二項分布:V(Y)=μ(1-μ)
 – ポワソン分布:V(Y)=μ


• っていうか、正規分布以外では残差e_i=Y_i-μ_iは超使い
  づらい
 – 残差の分散が均一になるように変換する必要あり!
主な残差統計量
• ピアソン残差



• 逸脱度残差

 – d_i=i番目の対象者の逸脱度への寄与


• 目的: 当てはめたモデルが適切ならば、残差に系統的
  なパターンは検出されないはず!

Weitere ähnliche Inhalte

Was ist angesagt?

第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場Daisuke Yoneoka
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4matsuolab
 
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2Hiroyuki Kato
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6Kohei Tomita
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルShohei Okada
 
PRML輪読#9
PRML輪読#9PRML輪読#9
PRML輪読#9matsuolab
 
13.01.20.第1回DARM勉強会資料#2
13.01.20.第1回DARM勉強会資料#213.01.20.第1回DARM勉強会資料#2
13.01.20.第1回DARM勉強会資料#2Yoshitake Takebayashi
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1matsuolab
 
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)Akihiro Nitta
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6matsuolab
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2matsuolab
 
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知  #ml-professional単純ベイズ法による異常検知  #ml-professional
単純ベイズ法による異常検知 #ml-professionalAi Makabi
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Yuki Matsubara
 

Was ist angesagt? (20)

第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場
 
Darm3(samplesize)
Darm3(samplesize)Darm3(samplesize)
Darm3(samplesize)
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 
001 z test
001 z test001 z test
001 z test
 
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
 
第2回DARM勉強会
第2回DARM勉強会第2回DARM勉強会
第2回DARM勉強会
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
 
PRML輪読#9
PRML輪読#9PRML輪読#9
PRML輪読#9
 
13.01.20.第1回DARM勉強会資料#2
13.01.20.第1回DARM勉強会資料#213.01.20.第1回DARM勉強会資料#2
13.01.20.第1回DARM勉強会資料#2
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
Prml4 1-4-2
Prml4 1-4-2Prml4 1-4-2
Prml4 1-4-2
 
Prml 4.3
Prml 4.3Prml 4.3
Prml 4.3
 
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知  #ml-professional単純ベイズ法による異常検知  #ml-professional
単純ベイズ法による異常検知 #ml-professional
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
 
Prml 4
Prml 4Prml 4
Prml 4
 

Andere mochten auch

【社内輪読会】Github実践入門2章
【社内輪読会】Github実践入門2章【社内輪読会】Github実践入門2章
【社内輪読会】Github実践入門2章Akira Torii
 
第一回統計学勉強会@東大駒場
第一回統計学勉強会@東大駒場第一回統計学勉強会@東大駒場
第一回統計学勉強会@東大駒場Daisuke Yoneoka
 
【社内輪読会】Effective Java 8章
【社内輪読会】Effective Java 8章【社内輪読会】Effective Java 8章
【社内輪読会】Effective Java 8章Akira Torii
 
【社内勉強会用】統計学超入門
【社内勉強会用】統計学超入門【社内勉強会用】統計学超入門
【社内勉強会用】統計学超入門Akira Torii
 
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説GM3D
 
Tokyowebmining #49 Matirx and nonparametric bayes
Tokyowebmining #49 Matirx and nonparametric bayesTokyowebmining #49 Matirx and nonparametric bayes
Tokyowebmining #49 Matirx and nonparametric bayesKenny ISHIMURA
 
今日からはじめる微分方程式
今日からはじめる微分方程式今日からはじめる微分方程式
今日からはじめる微分方程式Ryo Kaji
 
統計学超入門 アップロード用
統計学超入門 アップロード用統計学超入門 アップロード用
統計学超入門 アップロード用w24nishi
 
機械学習とコンピュータビジョン入門
機械学習とコンピュータビジョン入門機械学習とコンピュータビジョン入門
機械学習とコンピュータビジョン入門Kinki University
 
【SIROK技術勉強会 #4】機械学習と線形代数の基礎
【SIROK技術勉強会 #4】機械学習と線形代数の基礎【SIROK技術勉強会 #4】機械学習と線形代数の基礎
【SIROK技術勉強会 #4】機械学習と線形代数の基礎Shuntaro Tamura
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式Hiroshi Nakagawa
 
統計学基礎
統計学基礎統計学基礎
統計学基礎Yuka Ezura
 
人工知能ハンズオン
人工知能ハンズオン人工知能ハンズオン
人工知能ハンズオンyaju88
 
機械学習 入門
機械学習 入門機械学習 入門
機械学習 入門Hayato Maki
 
確率論基礎
確率論基礎確率論基礎
確率論基礎hoxo_m
 
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてエクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてHiroshi Shimizu
 
最適化超入門
最適化超入門最適化超入門
最適化超入門Takami Sato
 
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理Ken'ichi Matsui
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statisticsKohta Ishikawa
 

Andere mochten auch (20)

【社内輪読会】Github実践入門2章
【社内輪読会】Github実践入門2章【社内輪読会】Github実践入門2章
【社内輪読会】Github実践入門2章
 
第一回統計学勉強会@東大駒場
第一回統計学勉強会@東大駒場第一回統計学勉強会@東大駒場
第一回統計学勉強会@東大駒場
 
【社内輪読会】Effective Java 8章
【社内輪読会】Effective Java 8章【社内輪読会】Effective Java 8章
【社内輪読会】Effective Java 8章
 
【社内勉強会用】統計学超入門
【社内勉強会用】統計学超入門【社内勉強会用】統計学超入門
【社内勉強会用】統計学超入門
 
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
 
Tokyowebmining #49 Matirx and nonparametric bayes
Tokyowebmining #49 Matirx and nonparametric bayesTokyowebmining #49 Matirx and nonparametric bayes
Tokyowebmining #49 Matirx and nonparametric bayes
 
今日からはじめる微分方程式
今日からはじめる微分方程式今日からはじめる微分方程式
今日からはじめる微分方程式
 
統計学超入門 アップロード用
統計学超入門 アップロード用統計学超入門 アップロード用
統計学超入門 アップロード用
 
機械学習とコンピュータビジョン入門
機械学習とコンピュータビジョン入門機械学習とコンピュータビジョン入門
機械学習とコンピュータビジョン入門
 
【SIROK技術勉強会 #4】機械学習と線形代数の基礎
【SIROK技術勉強会 #4】機械学習と線形代数の基礎【SIROK技術勉強会 #4】機械学習と線形代数の基礎
【SIROK技術勉強会 #4】機械学習と線形代数の基礎
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
 
統計学基礎
統計学基礎統計学基礎
統計学基礎
 
線形計画法入門
線形計画法入門線形計画法入門
線形計画法入門
 
人工知能ハンズオン
人工知能ハンズオン人工知能ハンズオン
人工知能ハンズオン
 
機械学習 入門
機械学習 入門機械学習 入門
機械学習 入門
 
確率論基礎
確率論基礎確率論基礎
確率論基礎
 
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてエクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについて
 
最適化超入門
最適化超入門最適化超入門
最適化超入門
 
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statistics
 

Ähnlich wie 第四回統計学勉強会@東大駒場

第六回「データ解析のための統計モデリング入門」前半
第六回「データ解析のための統計モデリング入門」前半第六回「データ解析のための統計モデリング入門」前半
第六回「データ解析のための統計モデリング入門」前半Atsushi Hayakawa
 
PRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in chargePRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in chargeJunpei Matsuda
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰sleipnir002
 
[Tokyor08] Rによるデータサイエンス 第2部 第3章 対応分析
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
[Tokyor08] Rによるデータサイエンス 第2部 第3章 対応分析Yohei Sato
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布sleipnir002
 
Shunsuke Horii
Shunsuke HoriiShunsuke Horii
Shunsuke HoriiSuurist
 
Nips yomikai 1226
Nips yomikai 1226Nips yomikai 1226
Nips yomikai 1226Yo Ehara
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなしToru Imai
 
Hyperoptとその周辺について
Hyperoptとその周辺についてHyperoptとその周辺について
Hyperoptとその周辺についてKeisuke Hosaka
 
Angle-Based Outlier Detection周辺の論文紹介
Angle-Based Outlier Detection周辺の論文紹介Angle-Based Outlier Detection周辺の論文紹介
Angle-Based Outlier Detection周辺の論文紹介Naotaka Yamada
 
PRML 2.3.9-2.4.1
PRML 2.3.9-2.4.1PRML 2.3.9-2.4.1
PRML 2.3.9-2.4.1marugari
 
Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)wada, kazumi
 

Ähnlich wie 第四回統計学勉強会@東大駒場 (14)

第六回「データ解析のための統計モデリング入門」前半
第六回「データ解析のための統計モデリング入門」前半第六回「データ解析のための統計モデリング入門」前半
第六回「データ解析のための統計モデリング入門」前半
 
PRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in chargePRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in charge
 
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
[Tokyor08] Rによるデータサイエンス 第2部 第3章 対応分析
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
[Tokyor08] Rによるデータサイエンス 第2部 第3章 対応分析
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
 
PRML4.3
PRML4.3PRML4.3
PRML4.3
 
Shunsuke Horii
Shunsuke HoriiShunsuke Horii
Shunsuke Horii
 
Nips yomikai 1226
Nips yomikai 1226Nips yomikai 1226
Nips yomikai 1226
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 
Hyperoptとその周辺について
Hyperoptとその周辺についてHyperoptとその周辺について
Hyperoptとその周辺について
 
Angle-Based Outlier Detection周辺の論文紹介
Angle-Based Outlier Detection周辺の論文紹介Angle-Based Outlier Detection周辺の論文紹介
Angle-Based Outlier Detection周辺の論文紹介
 
PRML 2.3.9-2.4.1
PRML 2.3.9-2.4.1PRML 2.3.9-2.4.1
PRML 2.3.9-2.4.1
 
Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)
 

Mehr von Daisuke Yoneoka

Sequential Kernel Association Test (SKAT) for rare and common variants
Sequential Kernel Association Test (SKAT) for rare and common variantsSequential Kernel Association Test (SKAT) for rare and common variants
Sequential Kernel Association Test (SKAT) for rare and common variantsDaisuke Yoneoka
 
Higher criticism, SKAT and SKAT-o for whole genome studies
Higher criticism, SKAT and SKAT-o for whole genome studiesHigher criticism, SKAT and SKAT-o for whole genome studies
Higher criticism, SKAT and SKAT-o for whole genome studiesDaisuke Yoneoka
 
Deep directed generative models with energy-based probability estimation
Deep directed generative models with energy-based probability estimationDeep directed generative models with energy-based probability estimation
Deep directed generative models with energy-based probability estimationDaisuke Yoneoka
 
Supervised PCAとその周辺
Supervised PCAとその周辺Supervised PCAとその周辺
Supervised PCAとその周辺Daisuke Yoneoka
 
ML: Sparse regression CH.13
 ML: Sparse regression CH.13 ML: Sparse regression CH.13
ML: Sparse regression CH.13Daisuke Yoneoka
 
セミパラメトリック推論の基礎
セミパラメトリック推論の基礎セミパラメトリック推論の基礎
セミパラメトリック推論の基礎Daisuke Yoneoka
 
Murphy: Machine learning A probabilistic perspective: Ch.9
Murphy: Machine learning A probabilistic perspective: Ch.9Murphy: Machine learning A probabilistic perspective: Ch.9
Murphy: Machine learning A probabilistic perspective: Ch.9Daisuke Yoneoka
 
第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場Daisuke Yoneoka
 
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場Daisuke Yoneoka
 
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRDaisuke Yoneoka
 
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)Daisuke Yoneoka
 
Rで学ぶデータサイエンス第1章(判別能力の評価)
Rで学ぶデータサイエンス第1章(判別能力の評価)Rで学ぶデータサイエンス第1章(判別能力の評価)
Rで学ぶデータサイエンス第1章(判別能力の評価)Daisuke Yoneoka
 

Mehr von Daisuke Yoneoka (16)

MCMC法
MCMC法MCMC法
MCMC法
 
PCA on graph/network
PCA on graph/networkPCA on graph/network
PCA on graph/network
 
Sequential Kernel Association Test (SKAT) for rare and common variants
Sequential Kernel Association Test (SKAT) for rare and common variantsSequential Kernel Association Test (SKAT) for rare and common variants
Sequential Kernel Association Test (SKAT) for rare and common variants
 
Higher criticism, SKAT and SKAT-o for whole genome studies
Higher criticism, SKAT and SKAT-o for whole genome studiesHigher criticism, SKAT and SKAT-o for whole genome studies
Higher criticism, SKAT and SKAT-o for whole genome studies
 
Deep directed generative models with energy-based probability estimation
Deep directed generative models with energy-based probability estimationDeep directed generative models with energy-based probability estimation
Deep directed generative models with energy-based probability estimation
 
独立成分分析 ICA
独立成分分析 ICA独立成分分析 ICA
独立成分分析 ICA
 
Supervised PCAとその周辺
Supervised PCAとその周辺Supervised PCAとその周辺
Supervised PCAとその周辺
 
Sparse models
Sparse modelsSparse models
Sparse models
 
ML: Sparse regression CH.13
 ML: Sparse regression CH.13 ML: Sparse regression CH.13
ML: Sparse regression CH.13
 
セミパラメトリック推論の基礎
セミパラメトリック推論の基礎セミパラメトリック推論の基礎
セミパラメトリック推論の基礎
 
Murphy: Machine learning A probabilistic perspective: Ch.9
Murphy: Machine learning A probabilistic perspective: Ch.9Murphy: Machine learning A probabilistic perspective: Ch.9
Murphy: Machine learning A probabilistic perspective: Ch.9
 
第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場
 
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場
 
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRブートストラップ法とその周辺とR
ブートストラップ法とその周辺とR
 
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
 
Rで学ぶデータサイエンス第1章(判別能力の評価)
Rで学ぶデータサイエンス第1章(判別能力の評価)Rで学ぶデータサイエンス第1章(判別能力の評価)
Rで学ぶデータサイエンス第1章(判別能力の評価)
 

第四回統計学勉強会@東大駒場