SlideShare ist ein Scribd-Unternehmen logo
1 von 26
Downloaden Sie, um offline zu lesen
PRML読書会(最終回)
14.5 条件付き混合モデル
            坪坂 正志
  Mail: m.tsubosaka@gmail.com
 Blog : d.hatena.ne.jp/tsubosaka
発表内容
 14.5.1 線形回帰モデルの混合
  9.2節の混合モデルを条件付きガウス分布に拡張し
  たモデル
 14.5.2 ロジスティックモデルの混合
  4.3節のロジスティック回帰モデルを混合分布に拡
  張したモデル
 14.5.3 混合エキスパートモデル
  混合係数が条件付きで表されるモデル
混合線形回帰モデル
 それぞれが重みパラメータ������������ で支配される������個の
  線形回帰モデルを考える
 目標変数としては一次元の場合に限って考える
  複数の出力への拡張(演習14.12)
分布について
 混合分布 (混合係数を������������ とする)




 観測集合 : *������������ , ������������ +
 パラメータ集合 ������: ������ = ������������ , ������ = ������������ , ������
 対数尤度関数




                                       (14.35)
混合ガウス分布(9章)との比較
 混合線形回帰モデル




 混合ガウスモデル(一次元の場合)
推論アルゴリズム
 (14.35)式の尤度関数を最大化するためにEMアルゴ
  リズムを用いる
 二値潜在変数の集合������ = *������������ +を導入
Eステップ
 ������(������|������, ������old )を計算する
   各データ点������に対するクラス������の事後確率すなわち
   負担率をもとめる
Mステップ
 パラメータをQ関数について最適化




 ������������������ を固定しつつ、パラメータ������ = ������������ , ������ =
  ������������ , ������を最適化する
������������ , ������に関する最適化
 制約条件 ������ ������������ = 1のもとでラグランジュ未定乗
 数法を使うと



 Q関数から������に依存する項のみ取り出すと




 ������について微分して0とおけば
������������ についての最適化
 Q関数から������������ に依存する項のみ取り出すと




 ������������ についての微分を0とおくと
������������ についての最適化(行列表記)
 行列表記すると


 ここで������������ = diag(������������������ )は������ × ������の対角行列
 ������������ について解くと


 これは式(4.99)のロジスティック回帰の更新式と
  同じ形
 またK=1のときに線形回帰の推定式と一致する
データ例
 左から初期値、30反復目、50反復目の計算結果
 下はデータについての負担率
問題点
 多峰性の分布のため、データが存在しないところ
  領域にも大きな確率値をもつことがある
 混合係数も������の関数とすることにより解決できる
  混合密度ネットワーク(5.6節)
  階層的混合エキスパートモデル(14.5.3節)




                      この部分
混合ロジスティック回帰モデル
 混合ロジスティック回帰モデル
  ロジスティック回帰モデル(4.3)の混合モデルバー
  ジョン
 条件付き分布




 尤度関数




                       (14.46)
推論アルゴリズム
 線形回帰モデルと同様に二値潜在変数������������������ を導入
  して、EMアルゴリズムを用いて尤度関数の最大
  化を行う
 完全データの尤度関数
Eステップ
 負担率を計算
  14.5.1とほぼ同じ
Mステップ
 Q関数に関する最大化




 ������������ に関する最適化
  いつもの式
������������ についての最適化
 ������������ についての勾配を計算




 データ点に重み������������������ がついてるだけで、4.3.2の式
  (4.91)と同じ形
 ロジスティック回帰のときと同様に反復再重み付
  け最小二乗(IRLS)アルゴリズムを利用して解くこ
  とができる
データ例
 左は2クラス混合モデル、右は単一のロジス
ティック回帰モデル
混合エキスパートモデル
 混合係数それ自身も入力変数の関数としたモデル




入力������   エキスパート������������ (������|������)


入力������   エキスパート������������ (������|������)
                            ゲート関数
                                      出力t
                             ������(������)
             …
入力������   エキスパート������������ (������|������)
ゲート関数
 ������������ (������)は確率値であるため、制約条件として
  0 ≤ ������������ ������ ≤ 1, ������ ������������ ������ = 1を満たす必要がある
 これは例えば線形ソフトマックスモデルで表現で
  きる



 モデルパラメータの推論は反復再重み付け最小二
 乗法を用いたEMアルゴリズムによりできる
 (Jordan and Jacobs, 1994)
階層的混合エキスパートモデル
 混合エキスパートモデルを混合分布にしたモデル
 混合係数のモデルが線形分類モデル(ex. ソフトマック
 スモデル)であることにより、フラットな混合分布と
 は異なるモデルとなっている(演習14.17)

入力   混合エキスパートモデル


入力   混合エキスパートモデル

                   ゲート関数   出力
         …

入力   混合エキスパートモデル
階層的混合エキスパートモデル
 EMアルゴリズムにより効率よく最尤推定ができ
  る
 変分推論法によるベイズ的な扱いが与えられてい
  る(Bishop and Svensen 2003)
 決定木の確率的バージョンとみなすことができる
  葉ノードに相当する部分がエキスパートで入力に応
  じて各エキスパートの寄与率が決まる
(Jordan and Jacobs 1994)の図
混合密度ネットワークとの比較
 階層的混合エキスパートモデル
  EMアルゴリズムによる最適化においてMステップの
 最適化が凸最適化になる
 混合密度ネットワーク
  構成要素の密度と混合係数をニューラルネットワー
   クの隠れユニットで共有できる
  入力空間の分割が非線形にもなり得る
Fin

Weitere ähnliche Inhalte

Was ist angesagt?

PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)Takao Yamanaka
 
ノンパラメトリックベイズを用いた逆強化学習
ノンパラメトリックベイズを用いた逆強化学習ノンパラメトリックベイズを用いた逆強化学習
ノンパラメトリックベイズを用いた逆強化学習Shota Ishikawa
 
馬に蹴られるモデリング
馬に蹴られるモデリング馬に蹴られるモデリング
馬に蹴られるモデリングShushi Namba
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」Keisuke Sugawara
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2matsuolab
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係についてDeep Learning JP
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4matsuolab
 
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1Nagi Teramo
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10matsuolab
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1matsuolab
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
(実験心理学徒だけど)一般化線形混合モデルを使ってみた
(実験心理学徒だけど)一般化線形混合モデルを使ってみた(実験心理学徒だけど)一般化線形混合モデルを使ってみた
(実験心理学徒だけど)一般化線形混合モデルを使ってみたTakashi Yamane
 
猫でも分かりたい線形回帰の自由度
猫でも分かりたい線形回帰の自由度猫でも分かりたい線形回帰の自由度
猫でも分かりたい線形回帰の自由度YukinoriKambe
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5matsuolab
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11matsuolab
 
社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森Masashi Komori
 

Was ist angesagt? (20)

PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
 
ノンパラメトリックベイズを用いた逆強化学習
ノンパラメトリックベイズを用いた逆強化学習ノンパラメトリックベイズを用いた逆強化学習
ノンパラメトリックベイズを用いた逆強化学習
 
馬に蹴られるモデリング
馬に蹴られるモデリング馬に蹴られるモデリング
馬に蹴られるモデリング
 
PRML8章
PRML8章PRML8章
PRML8章
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
(実験心理学徒だけど)一般化線形混合モデルを使ってみた
(実験心理学徒だけど)一般化線形混合モデルを使ってみた(実験心理学徒だけど)一般化線形混合モデルを使ってみた
(実験心理学徒だけど)一般化線形混合モデルを使ってみた
 
猫でも分かりたい線形回帰の自由度
猫でも分かりたい線形回帰の自由度猫でも分かりたい線形回帰の自由度
猫でも分かりたい線形回帰の自由度
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11
 
社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森
 

Mehr von 正志 坪坂

KDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossingKDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossing正志 坪坂
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会正志 坪坂
 
WSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor modelWSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor model正志 坪坂
 
Deeplearning勉強会20160220
Deeplearning勉強会20160220Deeplearning勉強会20160220
Deeplearning勉強会20160220正志 坪坂
 
OnlineMatching勉強会第一回
OnlineMatching勉強会第一回OnlineMatching勉強会第一回
OnlineMatching勉強会第一回正志 坪坂
 
Tokyowebmining ctr-predict
Tokyowebmining ctr-predictTokyowebmining ctr-predict
Tokyowebmining ctr-predict正志 坪坂
 
Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計正志 坪坂
 
Contexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMiningContexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMining正志 坪坂
 
Introduction to contexual bandit
Introduction to contexual banditIntroduction to contexual bandit
Introduction to contexual bandit正志 坪坂
 
確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング正志 坪坂
 
Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)正志 坪坂
 

Mehr von 正志 坪坂 (20)

Recsys2018 unbiased
Recsys2018 unbiasedRecsys2018 unbiased
Recsys2018 unbiased
 
WSDM2018Study
WSDM2018StudyWSDM2018Study
WSDM2018Study
 
Recsys2016勉強会
Recsys2016勉強会Recsys2016勉強会
Recsys2016勉強会
 
KDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossingKDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossing
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会
 
WSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor modelWSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor model
 
Deeplearning勉強会20160220
Deeplearning勉強会20160220Deeplearning勉強会20160220
Deeplearning勉強会20160220
 
OnlineMatching勉強会第一回
OnlineMatching勉強会第一回OnlineMatching勉強会第一回
OnlineMatching勉強会第一回
 
Recsys2015
Recsys2015Recsys2015
Recsys2015
 
KDD 2015読み会
KDD 2015読み会KDD 2015読み会
KDD 2015読み会
 
Recsys2014 recruit
Recsys2014 recruitRecsys2014 recruit
Recsys2014 recruit
 
EMNLP2014_reading
EMNLP2014_readingEMNLP2014_reading
EMNLP2014_reading
 
Tokyowebmining ctr-predict
Tokyowebmining ctr-predictTokyowebmining ctr-predict
Tokyowebmining ctr-predict
 
KDD2014_study
KDD2014_study KDD2014_study
KDD2014_study
 
Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計
 
Contexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMiningContexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMining
 
Introduction to contexual bandit
Introduction to contexual banditIntroduction to contexual bandit
Introduction to contexual bandit
 
確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング
 
Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)
 
Tokyowebmining2012
Tokyowebmining2012Tokyowebmining2012
Tokyowebmining2012
 

Prml14 5