Suche senden
Hochladen
第四回統計学勉強会@東大駒場
•
Als PPTX, PDF herunterladen
•
1 gefällt mir
•
3,732 views
Daisuke Yoneoka
Folgen
Melden
Teilen
Melden
Teilen
1 von 17
Jetzt herunterladen
Empfohlen
第二回統計学勉強会@東大駒場
第二回統計学勉強会@東大駒場
Daisuke Yoneoka
13.01.20.第1回DARM勉強会資料#1
13.01.20.第1回DARM勉強会資料#1
Yoshitake Takebayashi
第2回DARM勉強会.preacherによるmoderatorの検討
第2回DARM勉強会.preacherによるmoderatorの検討
Masaru Tokuoka
第2回DARM勉強会
第2回DARM勉強会
Yoshitake Takebayashi
第4回DARM勉強会 (多母集団同時分析)
第4回DARM勉強会 (多母集団同時分析)
Masaru Tokuoka
13.01.20. 第1回DARM勉強会資料#4
13.01.20. 第1回DARM勉強会資料#4
Yoshitake Takebayashi
PRMLrevenge 4.4
PRMLrevenge 4.4
Naoya Nakamura
13.01.20.第1回DARM勉強会資料#3
13.01.20.第1回DARM勉強会資料#3
Yoshitake Takebayashi
Empfohlen
第二回統計学勉強会@東大駒場
第二回統計学勉強会@東大駒場
Daisuke Yoneoka
13.01.20.第1回DARM勉強会資料#1
13.01.20.第1回DARM勉強会資料#1
Yoshitake Takebayashi
第2回DARM勉強会.preacherによるmoderatorの検討
第2回DARM勉強会.preacherによるmoderatorの検討
Masaru Tokuoka
第2回DARM勉強会
第2回DARM勉強会
Yoshitake Takebayashi
第4回DARM勉強会 (多母集団同時分析)
第4回DARM勉強会 (多母集団同時分析)
Masaru Tokuoka
13.01.20. 第1回DARM勉強会資料#4
13.01.20. 第1回DARM勉強会資料#4
Yoshitake Takebayashi
PRMLrevenge 4.4
PRMLrevenge 4.4
Naoya Nakamura
13.01.20.第1回DARM勉強会資料#3
13.01.20.第1回DARM勉強会資料#3
Yoshitake Takebayashi
第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場
Daisuke Yoneoka
Darm3(samplesize)
Darm3(samplesize)
Yoshitake Takebayashi
PRML輪読#4
PRML輪読#4
matsuolab
001 z test
001 z test
Ayako Hoshino
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
Hiroyuki Kato
第2回DARM勉強会
第2回DARM勉強会
Masaru Tokuoka
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
Kohei Tomita
PRML輪読#3
PRML輪読#3
matsuolab
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
Shohei Okada
PRML輪読#9
PRML輪読#9
matsuolab
13.01.20.第1回DARM勉強会資料#2
13.01.20.第1回DARM勉強会資料#2
Yoshitake Takebayashi
PRML輪読#1
PRML輪読#1
matsuolab
Prml4 1-4-2
Prml4 1-4-2
Masahiro Kazama
Prml 4.3
Prml 4.3
Taikai Takeda
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
Akihiro Nitta
PRML輪読#6
PRML輪読#6
matsuolab
PRML輪読#2
PRML輪読#2
matsuolab
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知 #ml-professional
Ai Makabi
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
Yuki Matsubara
Prml 4
Prml 4
Satoshi Kawamoto
【社内輪読会】Github実践入門2章
【社内輪読会】Github実践入門2章
Akira Torii
第一回統計学勉強会@東大駒場
第一回統計学勉強会@東大駒場
Daisuke Yoneoka
Weitere ähnliche Inhalte
Was ist angesagt?
第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場
Daisuke Yoneoka
Darm3(samplesize)
Darm3(samplesize)
Yoshitake Takebayashi
PRML輪読#4
PRML輪読#4
matsuolab
001 z test
001 z test
Ayako Hoshino
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
Hiroyuki Kato
第2回DARM勉強会
第2回DARM勉強会
Masaru Tokuoka
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
Kohei Tomita
PRML輪読#3
PRML輪読#3
matsuolab
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
Shohei Okada
PRML輪読#9
PRML輪読#9
matsuolab
13.01.20.第1回DARM勉強会資料#2
13.01.20.第1回DARM勉強会資料#2
Yoshitake Takebayashi
PRML輪読#1
PRML輪読#1
matsuolab
Prml4 1-4-2
Prml4 1-4-2
Masahiro Kazama
Prml 4.3
Prml 4.3
Taikai Takeda
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
Akihiro Nitta
PRML輪読#6
PRML輪読#6
matsuolab
PRML輪読#2
PRML輪読#2
matsuolab
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知 #ml-professional
Ai Makabi
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
Yuki Matsubara
Prml 4
Prml 4
Satoshi Kawamoto
Was ist angesagt?
(20)
第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場
Darm3(samplesize)
Darm3(samplesize)
PRML輪読#4
PRML輪読#4
001 z test
001 z test
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
第2回DARM勉強会
第2回DARM勉強会
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
PRML輪読#3
PRML輪読#3
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
PRML輪読#9
PRML輪読#9
13.01.20.第1回DARM勉強会資料#2
13.01.20.第1回DARM勉強会資料#2
PRML輪読#1
PRML輪読#1
Prml4 1-4-2
Prml4 1-4-2
Prml 4.3
Prml 4.3
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML輪読#6
PRML輪読#6
PRML輪読#2
PRML輪読#2
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知 #ml-professional
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
Prml 4
Prml 4
Andere mochten auch
【社内輪読会】Github実践入門2章
【社内輪読会】Github実践入門2章
Akira Torii
第一回統計学勉強会@東大駒場
第一回統計学勉強会@東大駒場
Daisuke Yoneoka
【社内輪読会】Effective Java 8章
【社内輪読会】Effective Java 8章
Akira Torii
【社内勉強会用】統計学超入門
【社内勉強会用】統計学超入門
Akira Torii
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
GM3D
Tokyowebmining #49 Matirx and nonparametric bayes
Tokyowebmining #49 Matirx and nonparametric bayes
Kenny ISHIMURA
今日からはじめる微分方程式
今日からはじめる微分方程式
Ryo Kaji
統計学超入門 アップロード用
統計学超入門 アップロード用
w24nishi
機械学習とコンピュータビジョン入門
機械学習とコンピュータビジョン入門
Kinki University
【SIROK技術勉強会 #4】機械学習と線形代数の基礎
【SIROK技術勉強会 #4】機械学習と線形代数の基礎
Shuntaro Tamura
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
Hiroshi Nakagawa
統計学基礎
統計学基礎
Yuka Ezura
線形計画法入門
線形計画法入門
Shunji Umetani
人工知能ハンズオン
人工知能ハンズオン
yaju88
機械学習 入門
機械学習 入門
Hayato Maki
確率論基礎
確率論基礎
hoxo_m
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについて
Hiroshi Shimizu
最適化超入門
最適化超入門
Takami Sato
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
Ken'ichi Matsui
Introduction to statistics
Introduction to statistics
Kohta Ishikawa
Andere mochten auch
(20)
【社内輪読会】Github実践入門2章
【社内輪読会】Github実践入門2章
第一回統計学勉強会@東大駒場
第一回統計学勉強会@東大駒場
【社内輪読会】Effective Java 8章
【社内輪読会】Effective Java 8章
【社内勉強会用】統計学超入門
【社内勉強会用】統計学超入門
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
Tokyowebmining #49 Matirx and nonparametric bayes
Tokyowebmining #49 Matirx and nonparametric bayes
今日からはじめる微分方程式
今日からはじめる微分方程式
統計学超入門 アップロード用
統計学超入門 アップロード用
機械学習とコンピュータビジョン入門
機械学習とコンピュータビジョン入門
【SIROK技術勉強会 #4】機械学習と線形代数の基礎
【SIROK技術勉強会 #4】機械学習と線形代数の基礎
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
統計学基礎
統計学基礎
線形計画法入門
線形計画法入門
人工知能ハンズオン
人工知能ハンズオン
機械学習 入門
機械学習 入門
確率論基礎
確率論基礎
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについて
最適化超入門
最適化超入門
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
Introduction to statistics
Introduction to statistics
Ähnlich wie 第四回統計学勉強会@東大駒場
第六回「データ解析のための統計モデリング入門」前半
第六回「データ解析のための統計モデリング入門」前半
Atsushi Hayakawa
PRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in charge
Junpei Matsuda
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
sleipnir002
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
Yohei Sato
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
sleipnir002
PRML4.3
PRML4.3
hiroki yamaoka
Shunsuke Horii
Shunsuke Horii
Suurist
Nips yomikai 1226
Nips yomikai 1226
Yo Ehara
幾何を使った統計のはなし
幾何を使った統計のはなし
Toru Imai
Hyperoptとその周辺について
Hyperoptとその周辺について
Keisuke Hosaka
Angle-Based Outlier Detection周辺の論文紹介
Angle-Based Outlier Detection周辺の論文紹介
Naotaka Yamada
PRML 2.3.9-2.4.1
PRML 2.3.9-2.4.1
marugari
Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)
wada, kazumi
Ähnlich wie 第四回統計学勉強会@東大駒場
(14)
第六回「データ解析のための統計モデリング入門」前半
第六回「データ解析のための統計モデリング入門」前半
PRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in charge
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
PRML4.3
PRML4.3
Shunsuke Horii
Shunsuke Horii
Nips yomikai 1226
Nips yomikai 1226
幾何を使った統計のはなし
幾何を使った統計のはなし
Hyperoptとその周辺について
Hyperoptとその周辺について
Angle-Based Outlier Detection周辺の論文紹介
Angle-Based Outlier Detection周辺の論文紹介
PRML 2.3.9-2.4.1
PRML 2.3.9-2.4.1
Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)
Mehr von Daisuke Yoneoka
MCMC法
MCMC法
Daisuke Yoneoka
PCA on graph/network
PCA on graph/network
Daisuke Yoneoka
Sequential Kernel Association Test (SKAT) for rare and common variants
Sequential Kernel Association Test (SKAT) for rare and common variants
Daisuke Yoneoka
Higher criticism, SKAT and SKAT-o for whole genome studies
Higher criticism, SKAT and SKAT-o for whole genome studies
Daisuke Yoneoka
Deep directed generative models with energy-based probability estimation
Deep directed generative models with energy-based probability estimation
Daisuke Yoneoka
独立成分分析 ICA
独立成分分析 ICA
Daisuke Yoneoka
Supervised PCAとその周辺
Supervised PCAとその周辺
Daisuke Yoneoka
Sparse models
Sparse models
Daisuke Yoneoka
ML: Sparse regression CH.13
ML: Sparse regression CH.13
Daisuke Yoneoka
セミパラメトリック推論の基礎
セミパラメトリック推論の基礎
Daisuke Yoneoka
Murphy: Machine learning A probabilistic perspective: Ch.9
Murphy: Machine learning A probabilistic perspective: Ch.9
Daisuke Yoneoka
第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場
Daisuke Yoneoka
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場
Daisuke Yoneoka
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とR
Daisuke Yoneoka
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
Daisuke Yoneoka
Rで学ぶデータサイエンス第1章(判別能力の評価)
Rで学ぶデータサイエンス第1章(判別能力の評価)
Daisuke Yoneoka
Mehr von Daisuke Yoneoka
(16)
MCMC法
MCMC法
PCA on graph/network
PCA on graph/network
Sequential Kernel Association Test (SKAT) for rare and common variants
Sequential Kernel Association Test (SKAT) for rare and common variants
Higher criticism, SKAT and SKAT-o for whole genome studies
Higher criticism, SKAT and SKAT-o for whole genome studies
Deep directed generative models with energy-based probability estimation
Deep directed generative models with energy-based probability estimation
独立成分分析 ICA
独立成分分析 ICA
Supervised PCAとその周辺
Supervised PCAとその周辺
Sparse models
Sparse models
ML: Sparse regression CH.13
ML: Sparse regression CH.13
セミパラメトリック推論の基礎
セミパラメトリック推論の基礎
Murphy: Machine learning A probabilistic perspective: Ch.9
Murphy: Machine learning A probabilistic perspective: Ch.9
第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とR
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
Rで学ぶデータサイエンス第1章(判別能力の評価)
Rで学ぶデータサイエンス第1章(判別能力の評価)
第四回統計学勉強会@東大駒場
1.
統計学勉強会 第四回
@kingqwert
2.
ちょっと前回の復習
3.
ロジット分析 • 生存確率q、ロジット関数
4.
ポワソンモデル • データが離散値、ゼロ以上の範囲、上限なし、平均=分
散 • ある個体iにおいて種子数がy_iである確率p(y_i|λ_i)がポ ワソン分布に従う • リンク関数は対数リンク関数 – Logλ=(線形予測子)
5.
RでGLM
基本は、 Result <- glm(formula, data, family, link) 確率分布 乱数生成 family リンク関数 離散 二項分布 rbinom() binomial logit ポワソン分布 rpois() poisson log 負の二項分布 rnbinom() glm.nb関数 log 連続 ガンマ分布 rgamma() gamma log? 正規分布 rnorm() gaussian identity
6.
今回の内容は、実際の使い方、解釈の仕方 etc •
係数の解釈(ポワソン、ロジット) • 統計量 (Wald統計量、逸脱度deviance) • 尤度比検定 • GLMにおける残差 あたりが今日のメイン
7.
係数の解釈 • ロジット分析 –
オッズ比=exp(線形予測子) – リンク関数=ロジットリンク – Ex. 病気になるリスクはexp(1.95)=7倍 • ポワソン回帰 – 平均=exp(線形予測子) – リンク関数=logリンク – Xが1単位上昇すると平均種子数はexp(β2)だけ上昇する – 平均種子数はポワソン分布のパラメータ
8.
係数の解釈2 • 線形回帰モデル –
リンク関数=identityリンク – E(Y)=線形予測子 – Xが1単位上昇するとYの平均がβだけ上昇する。
9.
指数型分布族の平均と分散 • 指数分布族
– Θ:正準パラメーター – Φ:dispersion パラメーター • 対数尤度 l(θ,Φ;y)=log f(y; θ,Φ) – わりと有名な関係式 • 期待値と分散
10.
GLMにおけるパラメタ推定 • 正準パラメーターにθ=g(μ)=βxを代入 • 対数尤度関数をβに関してargmax
– 対数尤度 l(θ,Φ;y)=log f(y; θ,Φ)
11.
スコア関数 • 対数尤度関数をβに関して1回微分(この式を0として解
いていく) • 直感的理解 – 残差Y-μを0とするような推定量 • 1次のモーメントのみアジャスト – 分散の逆数で重み付け • 一般に、分散関数は平均μの関数 – スカラーからパラメーターの次元に変換するために勾配ベクト ルをかける
12.
Βに対する推測 • Βの最尤推定量とその分散(フィッシャー情報量の逆行
列)に基づく – フィッシャー情報量:スコア関数の二次のモーメント=対数尤 度関数の二階微分の期待値 – これらを用いて – Wald検定・信頼区間 – スコア検定・信頼区間 – 尤度比検定・信頼区間
13.
Wald検定 • あるパラメーターβ_k • 帰無仮説:
H0: β_k=0 • Wald検定 – 検定統計量 ~ 標準正規分布 – ただし、分母はフィッシャー情報行列の逆行列のdiag要素 • Wald信頼区間
14.
残差逸脱度 Deviance • モデルの当てはまり:尤度比統計量
– 今のモデルと飽和モデル(Full model)との比較 • -2log [仮定したモデルでの最大対数尤度 – 飽和モデルでの最大対数尤度] • = • これにdispersionパラメーターをかけたもの=残差逸脱度 • 正規分布のもとでの残差逸脱度=残差平方和と一致 • 残差逸脱度は残差平方和の正規分布以外の結果変数への 一般化 – 二項分布、ポワソン分布ではφ=1
15.
尤度比検定 • 2つのネストしたモデル
– M0: E(Y)=μ0=β0+β1X – M1: E(Y)=μ1=β0+β1X+β2X*X – この時、D(M0)≥D(M1) • 逸脱度は必ず小さいモデルのほうが大きい • M0とM1の比較(β2=0の検定)
16.
GLMにおける残差 • 線形モデルと違い、二項分布やポワソン分布は分散が平
均に依存 – 二項分布:V(Y)=μ(1-μ) – ポワソン分布:V(Y)=μ • っていうか、正規分布以外では残差e_i=Y_i-μ_iは超使い づらい – 残差の分散が均一になるように変換する必要あり!
17.
主な残差統計量 • ピアソン残差 • 逸脱度残差
– d_i=i番目の対象者の逸脱度への寄与 • 目的: 当てはめたモデルが適切ならば、残差に系統的 なパターンは検出されないはず!
Jetzt herunterladen