SlideShare ist ein Scribd-Unternehmen logo
1 von 16
Downloaden Sie, um offline zu lesen
PRML復々習レーン#15
前回までのあらすじ
2013-11-09
Yoshihiko Suhara
@sleepy_yoshi
v.1.0
前回のおさらい
• 復々習レーンの復習を10分程度でやります
– 得られた結論にポイントを絞る
– 「よーするに」な内容
• 好きなところをたくさん喋る
• よくわからないところは誤魔化す
• まちがってたら指摘してください

• 目的

ポイントだよ

ポイントだよ

ポイント小僧の向きに意味はありません

– 前回の復習
– 不参加の方に流れを伝えるため
– 自分自身の勉強のため
2
前回の範囲
• 9章 混合モデルとEM
– 9.1 K-means クラスタリング
• 9.1.1 画像分割と画像圧縮

– 9.2 混合ガウス分布 (Mixture of Gaussians)

前回の範囲

• 9.2.1 最尤推定
• 9.2.2 混合ガウス分布のEMアルゴリズム

– 9.3 EMアルゴリズムのもう一つの解釈
•
•
•
•

9.3.1 混合ガウス分布再訪
9.3.2 K-means との関連
9.3.3 混合ベルヌーイ分布
9.3.4 ベイズ線形回帰に関するEMアルゴリズム

– 9.4 一般のEMアルゴリズム
3
9章 混合モデルとEM

4
9 混合モデルとEM
ポイントだよ

観測変数と潜在変数の同時分布を定義することにより
単純な分布から複雑な分布を構成することが可能になる (混合モデル)
その際,最尤推定に (一般的に) 利用されるのがEMアルゴリズム

• 混合ガウスの例
– 観測データはいずれかのガウス分布から生成される
と仮定

5
9.1 K-means クラスタリング

6
9.1 K-means クラスタリング
ポイントだよ

収束するまで以下の2ステップを繰り返すクラスタリング手法
(1) データ点のクラスタへの再割り当て (Eステップに相当)
(2) クラスタ平均の再計算 (Mステップに相当)
•

以下の損失関数を最小化する割り当て𝑟 𝑛𝑘 ∈ 0, 1 と,クラスタ平均𝝁 𝑘 を求めている
𝑁

𝐾

𝐽=

𝑟 𝑛𝑘 𝒙 𝑛 − 𝝁 𝑘

2
2

𝑛=1 𝑘=1

•

非凸であるため,大域的最適解の保証はないが,局所最適解への収束保証はあり (初期値によって解
が変わる)

7
#iteration
9.1.1 画像分割と画像圧縮
ポイントだよ

各画素をデータ点とみなしてクラスタリングし,
同一クラスタに対して同じ色をアサインすることで
画像圧縮を実現できる
• 画素をRGBの3次元空間のデータ点と解釈して,K-meansクラスタリングを
実行した例
– クラスタの平均値を利用して色を表現
– ベクトル量子化とも呼ばれる枠組み

8
9.2混合ガウス分布
(Mixture of Gaussians)

※ どうでもいいがなぜこれだけ英訳つき?
Gaussian Mixture Model (GMM) という呼び方の方が
9
よく見かける気も…
9.2 混合ガウス分布
ポイントだよ

ガウス分布の線形重ねあわせで混合ガウス分布を表現する
潜在変数を用意し,データを観測した際の負担率を計算する

•

𝑝 𝒙 =

𝒛

𝑝 𝒛 𝑝 𝑥 𝒛 =

𝐾
𝑘=1

𝜋 𝑘 𝒩 𝒙 𝝁 𝑘, 𝚺 𝑘

• ベイズの定理より潜在変数の事後確率は以下の形で計算できる
𝛾 𝑧 𝑘𝑛 ≡ 𝑝 𝑧 𝑘 = 1 𝒙 𝑛 =
=

𝑝 𝑧𝑘 = 1 𝑝 𝒙𝑛 𝑧𝑘 = 1

𝐾
𝑗=1

𝑝 𝑧𝑗 = 1 𝑝 𝒙 𝑛 𝑧𝑗 = 1

𝜋 𝑘 𝒩 𝒙 𝑛 𝝁 𝑘, 𝚺 𝑘
𝐾
𝑗=1

𝜋𝑗 𝒩 𝒙 𝑛 𝝁 𝑗, 𝚺𝑗

– ここで 𝛾(𝑧 𝑘𝑛 )を混合要素𝑘がデータ𝑛を「説明する」度合いを表
す負担率と呼ぶ
10
9.2.1 最尤推定
ポイントだよ

混合ガウス分布を最尤推定する…際の注意点
•

各データ点が独立に生成されたと仮定すると,対数尤度関数は以下のように表
せる
𝑁

ln 𝑝 𝑿 𝝅, 𝝁, 𝚺 =

𝐾

ln
𝑛=1

•

𝑘=1

あるデータ点と等しい平均パラメータを持つガウス分布の尤度関数は以下の形
になる
𝒩 𝒙 𝑛 𝒙 𝑛, 𝜎2 𝐼 =

•

𝜋 𝑘 𝒩 𝒙 𝑛 𝝁 𝑘, 𝚺 𝑘

1
1
2𝜋 1/2 𝜎𝑗

ここで𝜎𝑗 → 0 で尤度は無限に発散してしまう 

– ベイズ的アプローチやヒューリスティクスで避けられる

11
9.2.2 混合ガウス分布のEMアルゴリズム
ポイントだよ

以下の2ステップを繰り返す
(1) 現在のパラメータにおいて負担率を計算,
(2) 計算した負担率にしたがって新しいパラメータを計算
•

Eステップ
–

•

𝛾 𝑧 𝑛𝑘 =

𝜋𝑘
𝐾
𝑗=1

𝒩 𝑥 𝑛 𝝁 𝑘 ,𝚺 𝑘
𝜋 𝑗 𝒩 𝑥 𝑛 𝝁 𝑗 ,𝚺 𝑗

Mステップ
–

𝝁new =
𝑘

1
𝑁𝑘

𝑁
𝑛=1

𝛾 𝑧 𝑛𝑘 𝒙 𝑛

–

𝚺 new =
𝑘

1
𝑁𝑘

𝑁
𝑛=1

𝛾 𝑧 𝑛𝑘

𝒙 𝑛 − 𝝁new
𝑘

𝒙 𝑛 − 𝝁new
𝑘

𝑇

𝑁

– 𝜋 new = 𝑘
𝑘
𝑁
– ただし,𝑁 𝑘 =

𝑁
𝑛=1

𝛾 𝑧 𝑛𝑘

負担率に無視すれば,通常のガウス分布の最尤推定と
同じ形をしていることに注目

12
9.3 EMアルゴリズムのもう一つの解釈

13
9.3 EMアルゴリズムのもう一つの解釈
ポイントだよ

一般のEMアルゴリズムについて考える
※ 完全データ集合における対数尤度の最大化は
容易であるという仮定をおく
• 潜在変数を持つモデルの対数尤度を考える
– ln 𝑝 𝑿 𝜽 = ln 𝒛 𝑃 𝑿, 𝒁 𝜽
– 総和が対数の中にあるため,計算が困難 
• 指数型分布族を考えると log

exp となる

• そこで 𝑿, 𝒁 という完全データ集合に対する対数尤度ln 𝑝 𝑿, 𝒁 𝜽
を考え,Zに関する期待値を最大化する
– 𝒬 𝜽, 𝜽 𝑜𝑙𝑑 =

𝒁

𝑝 𝒁 𝑿, 𝜽 𝑜𝑙𝑑 ln 𝑝 𝑿, 𝒁 𝜽

– 𝜽 𝑛𝑒𝑤 = argmax 𝜽 𝒬 𝜽, 𝜽 𝑜𝑙𝑑
14
9.3.1 混合ガウス分布再訪
ポイントだよ

完全データに対する対数尤度と
不完全データに対する対数尤度を見比べる
•

完全データ対数尤度

𝑁

𝐾

ln 𝑝 𝑿, 𝒁 𝝁, 𝚺, 𝝅 =

𝑧 𝑛𝑘 ln 𝜋 𝑘 + ln 𝒩 𝒙 𝑛 𝝁 𝑘 , 𝚺 𝑘
𝑛=1 𝑘=1

•

不完全データ対数尤度 (完全データ対数尤度関数の期待値)
𝑁

𝐾

𝔼 𝒁 [ln 𝑝 𝑿, 𝒁 𝝁, 𝚺, 𝝅 ] =

𝛾 𝑧 𝑛𝑘 ln 𝜋 𝑘 + ln 𝒩 𝒙 𝑛 𝝁 𝑘 , 𝚺 𝑘
𝑛=1 𝑘=1

演習9.5

𝜋
事後分布のもとで{𝑧 𝑛 }が独立を示す
𝝁

プレート表現
を展開

𝑧1

𝑧2

…

𝑧𝑛

…
𝒙1

𝒙2

𝚺

マルコフブランケットが観測されて
いるので各𝑧 𝑛 は条件付き独立

15
𝒙𝑛
つづく

さぁ今日も一日
がんばるぞ

16

Weitere ähnliche Inhalte

Was ist angesagt?

PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1sleepy_yoshi
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Wataru Kishimoto
 
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」Keisuke Sugawara
 
PRML復々習レーン#14 ver.2
PRML復々習レーン#14 ver.2PRML復々習レーン#14 ver.2
PRML復々習レーン#14 ver.2Takuya Fukagai
 
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5sleepy_yoshi
 
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight MapsFisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight MapsTakao Yamanaka
 
ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章YosukeAkasaka
 
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじPRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじsleepy_yoshi
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」Keisuke Sugawara
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじsleepy_yoshi
 
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)Toshiyuki Shimono
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するsleepy_yoshi
 

Was ist angesagt? (20)

PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
 
PRML 6.4-6.5
PRML 6.4-6.5PRML 6.4-6.5
PRML 6.4-6.5
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
 
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」
 
PRML復々習レーン#14 ver.2
PRML復々習レーン#14 ver.2PRML復々習レーン#14 ver.2
PRML復々習レーン#14 ver.2
 
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5
 
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight MapsFisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight Maps
 
ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章
 
PRML4.3.3
PRML4.3.3PRML4.3.3
PRML4.3.3
 
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじPRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじ
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
 
PRML Chapter 14
PRML Chapter 14PRML Chapter 14
PRML Chapter 14
 
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
 
Deeplearning4.4 takmin
Deeplearning4.4 takminDeeplearning4.4 takmin
Deeplearning4.4 takmin
 
PRML_from5.1to5.3.1
PRML_from5.1to5.3.1PRML_from5.1to5.3.1
PRML_from5.1to5.3.1
 
Gmm勉強会
Gmm勉強会Gmm勉強会
Gmm勉強会
 
PRML 2.3.1-2.3.2
PRML 2.3.1-2.3.2PRML 2.3.1-2.3.2
PRML 2.3.1-2.3.2
 

Mehr von sleepy_yoshi

KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on TwitterKDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twittersleepy_yoshi
 
KDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking MeasuresKDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking Measuressleepy_yoshi
 
PRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじPRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじsleepy_yoshi
 
PRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじPRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじsleepy_yoshi
 
PRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじPRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじsleepy_yoshi
 
ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelsICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelssleepy_yoshi
 
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and RecommendationSEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and Recommendationsleepy_yoshi
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-sleepy_yoshi
 
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじPRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじsleepy_yoshi
 
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじPRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじsleepy_yoshi
 
SIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to RankSIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to Ranksleepy_yoshi
 
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5sleepy_yoshi
 
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...sleepy_yoshi
 
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)sleepy_yoshi
 
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical SearchWSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Searchsleepy_yoshi
 
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)sleepy_yoshi
 
SIGIR2011読み会 3. Learning to Rank
SIGIR2011読み会 3. Learning to RankSIGIR2011読み会 3. Learning to Rank
SIGIR2011読み会 3. Learning to Ranksleepy_yoshi
 
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++sleepy_yoshi
 
ACL2011読み会: Query Weighting for Ranking Model Adaptation
ACL2011読み会: Query Weighting for Ranking Model AdaptationACL2011読み会: Query Weighting for Ranking Model Adaptation
ACL2011読み会: Query Weighting for Ranking Model Adaptationsleepy_yoshi
 
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめDSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめsleepy_yoshi
 

Mehr von sleepy_yoshi (20)

KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on TwitterKDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
 
KDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking MeasuresKDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking Measures
 
PRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじPRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじ
 
PRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじPRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじ
 
PRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじPRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじ
 
ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelsICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic models
 
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and RecommendationSEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
 
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじPRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじ
 
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじPRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじ
 
SIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to RankSIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to Rank
 
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
 
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
 
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
 
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical SearchWSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
 
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
 
SIGIR2011読み会 3. Learning to Rank
SIGIR2011読み会 3. Learning to RankSIGIR2011読み会 3. Learning to Rank
SIGIR2011読み会 3. Learning to Rank
 
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
 
ACL2011読み会: Query Weighting for Ranking Model Adaptation
ACL2011読み会: Query Weighting for Ranking Model AdaptationACL2011読み会: Query Weighting for Ranking Model Adaptation
ACL2011読み会: Query Weighting for Ranking Model Adaptation
 
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめDSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめ
 

PRML復々習レーン#15 前回までのあらすじ