SlideShare ist ein Scribd-Unternehmen logo
KDD2013読み会:
Direct Optimization of Ranking Measures for
Learning to Rank Models

2013-09-08
Yoshihiko Suhara
@sleepy_yoshi
1枚説明

Direct Optimization of Ranking Measures
for Learning to Rank Models

by Ming Tan, Tian Xia, Lily Guo and Shaojun Wang (Wright State University)
• 教師あり学習でランキングを最適化するランキング学習 (Learning to
rank) の研究
• 既存手法の課題
– 検索ランキングに用いられる評価指標は非連続かつ微分不可能のため直接
の最適化が困難

• アイディア
– 線形モデルにおいて,ひとつのパラメータ以
外を固定して当該パラメータに関する最適化
を考える
• coordinate descent やMERTのノリ

– 評価値が変化するのは文書の順序が入れ替
わる点という性質に着目し,変化点のみ探索
することで効率よく評価指標を直接最適化す
るアイディアを提案
ランキング学習の簡単な説明
補足: 近代的なランキングの実現方法
• 多数のランキング素性を用いてランキングを実現
クエリ・文書関連度
(クエリ依存)

𝜙1 (𝑞, 𝑑)

クエリq

e.g., BM25

・
・
・

ランキング関数

𝜙 𝑚 (𝑞, 𝑑)

𝐰 T Φ(𝑞, 𝑑)
𝜙

𝑚+1 (𝑑)
e.g., PageRank

・
・
・

クエリqを含む
文書d

𝜙 𝑛 (𝑑)

= Φ(𝑞, 𝑑)

検索スコア
文書の重要度
(クエリ非依存)
4
補足: ランキング素性の例
クエリq = “hoge” のときの文書1の例

•
•
•
•

TF-TITLE □: 1
TF-BODY □: 3
IN-LINK: 5
URL length: 12

<TITLE> hoge </TITLE>
<BODY> ... hoge ....
...............................
..... hoge ................
...............................
hoge ......................
</BODY>

http://www.hoge.com/

⇒ Φ "hoge", 𝑑1 = 1, 3, 5, 12 𝑇

5
補足: ランキング学習の訓練データ
素性や評価はクエリ毎に与えられる

Training
data

𝑞𝑁

𝑞2

𝑞1
(𝒙1 , 𝑦1 )

1

1

(𝒙1 , 𝑦1 )

2

2

1
(𝒙2

1

2
(𝒙2

2

, 𝑦2 )

, 𝑦2 )

𝑁

𝑁

𝑁

𝑁

(𝒙1 , 𝑦1 )

…

(𝒙2 , 𝑦2 )

…
2

…

1

…

1

(𝒙 𝑛1 , 𝑦 𝑛1 )

2

(𝒙 𝑛2 , 𝑦 𝑛2 )

𝑁

𝑁

(𝒙 𝑛 𝑁 , 𝑦 𝑛 𝑁 )

6
補足: NDCGの計算方法
• 検索ランキングのデファクトスタンダード的評価方法
– 正解データとランキングを比較

• 検索結果上位を重視する評価指標

– (1) 順位kに高い点数>順位kに低い点数 分子
– (2) ランキング上位をより重視 分母

• NDCG (Normalized Discouted Cumulative Gain)
– 上記の2つを取り入れた多段階評価指標
– 𝑦 𝑞,𝑖 : クエリqにおける順位iの評価点数
𝑘

𝐷𝐶𝐺 𝑞 @𝑘 ≡
𝑖=1

2 𝑦 𝑞,𝑖 − 1
log 1 + 𝑖

𝐷𝐶𝐺 𝑞 @𝑘
𝑁𝐷𝐶𝐺 𝑞 @𝑘 ≡
𝑚𝑎𝑥𝐷𝐶𝐺 𝑞 @𝑘

(0,1]に正規化
7
ランキング学習の簡単な説明
おわり
手法の説明
準備 (1/2)
• 線形モデルを考える
– 素性をそのまま用いる代わりにBase LearnerとしてMART
を利用
• MARTについては後述

– 用意したMARTの各弱学習器の出力 = 素性とみなす
ベクトル

MARTの弱学習器の数だけ
パラメータ
補足: MARTTM
• Multiple Additive Regression Trees (MART)
– Gradient Tree Boosting の一種
– see Wikipedia
• http://en.wikipedia.org/wiki/Gradient_boosting

• Gradient Tree Boosting てきとー説明
– Boosting の Weak learner が Decision Tree
• Boosting:

– 𝑓 𝒙 = 𝑖 𝛼 𝑖 ℎ 𝑖 (𝒙) で予測
– ℎ 𝑖 (𝒙)を各試行で生成

– Boosting の弱学習器生成と重み (𝛼 𝑖 ) 計算に目的関数の勾
配情報を利用
• この重みをちゃんと計算しないとね (by MART作者)
準備 (2/2)
• 1次元毎に最適化するCoordinate descentのノ
リで更新を行う
– 本稿ではMERTにインスパイヤされたとも書いて
ある
補足: Coordinate Descent
• 座標降下法とも呼ばれる (?)
• 選択された次元に対して直線探索
• いろんな次元の選び方
– 例) Cyclic Coordinate Descent

• 並列計算する場合には全次元の部分集合を選択して更新

13
補足: MERT
• Minimum Error Rate Training (MERT)
– 統計的機械翻訳のデファクトスタンダード手法
– 元手法は1次元単位.多次元版もあるみたい [Galley+ 2011]

[Osh 2003]より抜粋
これからこの絵だけで説明 
図の見方
クエリ1の
各文書のスコア

クエリ2の
各文書のスコア

評価値

パラメータの値
他のパラメータを固定してパラメータ𝛼 𝑘 だけ考える
各文書のスコアは線形に変化する
文書の順序が入れ替わる場所
(jumping point)
NDCG@3の場合,各クエリ上位3件だけ考えればよい
全てのクエリのjumping pointに挟まれた区間で
NDCGを計算し,最大のパラメータに更新
※細かいところをいうと
NDCG最大のパラメータは無数存在するので
本稿では区間の真ん中を選択する方法を利用

このグラフ相当の
情報を得る

ココ
以上を繰り返す
• 次元の選択方法は順番に行う
– cf. Cyclic coordinate descent

• 補足
– 全次元の中でNDCGの増加が最大のものを選択
するGreedyな方法も試したが,コストの割によくな
かったらしい
アルゴリズム
• もう理解 (わか) りますよね 
手法の説明おわり
評価
• 当たり前の結果
– よい.ハイハイわかりましたよ,よいんですね
– 精度の意味でstate-of-the-art手法 [Ganjisaffar+ 11] と比
較していない 
再掲

Direct Optimization of Ranking Measures
for Learning to Rank Models
by Ming Tan, Tian Xia, Lily Guo and Shaojun Wang (Wright State University)

• 教師あり学習でランキングを最適化するランキング学習 (Learning to
rank) の研究
• 既存手法の課題
– 検索ランキングに用いられる評価指標は非連続かつ微分不可能のため直接
の最適化が困難

• アイディア
– 線形モデルにおいて,ひとつのパラメータ以
外を固定して当該パラメータに関する最適化
を考える
• coordinate descent やMERTのノリ

– 評価値が変化するのは文書の順序が入れ替
わる点という性質に着目し,変化点のみ探索
することで効率よく評価指標を直接最適化す
るアイディアを提案
References
• [Och 03] F. J. Och, “Minimum Error Rate Training in Statistical
Machine Translation”, Proc. ACL ‘03, 2003.
• [Galley+ 11] M. Galley, C. Quirk, “Optimal Search for Minimum
Error Rate Training”, Proc. EMNLP ’11, 2011.
• [Ganjisaffar+ 11] Y. Ganjisaffar, R. Caruana, C. V. Lopes,
“Bagging gradient-boosted trees for high precision, low
variance ranking models”, Proc. SIGIR ‘11. 2011.

Weitere ähnliche Inhalte

Andere mochten auch

[Karger+ NIPS11] Iterative Learning for Reliable Crowdsourcing Systems
[Karger+ NIPS11] Iterative Learning for Reliable Crowdsourcing Systems[Karger+ NIPS11] Iterative Learning for Reliable Crowdsourcing Systems
[Karger+ NIPS11] Iterative Learning for Reliable Crowdsourcing Systems
Shuyo Nakatani
 
Extreme Extraction - Machine Reading in a Week
Extreme Extraction - Machine Reading in a WeekExtreme Extraction - Machine Reading in a Week
Extreme Extraction - Machine Reading in a Week
Shuyo Nakatani
 
Short Text Language Detection with Infinity-Gram
Short Text Language Detection with Infinity-GramShort Text Language Detection with Infinity-Gram
Short Text Language Detection with Infinity-Gram
Shuyo Nakatani
 

Andere mochten auch (17)

PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじPRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじ
 
Repeat buyer prediction for e commerce, KDD2016
Repeat buyer prediction for e commerce, KDD2016Repeat buyer prediction for e commerce, KDD2016
Repeat buyer prediction for e commerce, KDD2016
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
 
[Karger+ NIPS11] Iterative Learning for Reliable Crowdsourcing Systems
[Karger+ NIPS11] Iterative Learning for Reliable Crowdsourcing Systems[Karger+ NIPS11] Iterative Learning for Reliable Crowdsourcing Systems
[Karger+ NIPS11] Iterative Learning for Reliable Crowdsourcing Systems
 
Extreme Extraction - Machine Reading in a Week
Extreme Extraction - Machine Reading in a WeekExtreme Extraction - Machine Reading in a Week
Extreme Extraction - Machine Reading in a Week
 
はじぱた7章F5up
はじぱた7章F5upはじぱた7章F5up
はじぱた7章F5up
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
 
Topic Modeling for Learning Analytics Researchers LAK15 Tutorial
Topic Modeling for Learning Analytics Researchers LAK15 TutorialTopic Modeling for Learning Analytics Researchers LAK15 Tutorial
Topic Modeling for Learning Analytics Researchers LAK15 Tutorial
 
20151221 public
20151221 public20151221 public
20151221 public
 
Short Text Language Detection with Infinity-Gram
Short Text Language Detection with Infinity-GramShort Text Language Detection with Infinity-Gram
Short Text Language Detection with Infinity-Gram
 
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめDSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめ
 
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
 
HDP2.5 Updates
HDP2.5 UpdatesHDP2.5 Updates
HDP2.5 Updates
 
Deep Learning On Apache Spark
Deep Learning On Apache SparkDeep Learning On Apache Spark
Deep Learning On Apache Spark
 
aiconf2017okanohara
aiconf2017okanoharaaiconf2017okanohara
aiconf2017okanohara
 
SVMについて
SVMについてSVMについて
SVMについて
 
Ibis2016okanohara
Ibis2016okanoharaIbis2016okanohara
Ibis2016okanohara
 

Mehr von sleepy_yoshi

SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and RecommendationSEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
sleepy_yoshi
 
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical SearchWSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
sleepy_yoshi
 

Mehr von sleepy_yoshi (20)

PRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじPRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじ
 
PRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじPRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじ
 
ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelsICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic models
 
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and RecommendationSEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
 
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじPRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじ
 
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5
 
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
 
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
 
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
 
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5
 
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじPRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじ
 
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
 
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
 
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical SearchWSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
 
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
 
SIGIR2011読み会 3. Learning to Rank
SIGIR2011読み会 3. Learning to RankSIGIR2011読み会 3. Learning to Rank
SIGIR2011読み会 3. Learning to Rank
 
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
 
ACL2011読み会: Query Weighting for Ranking Model Adaptation
ACL2011読み会: Query Weighting for Ranking Model AdaptationACL2011読み会: Query Weighting for Ranking Model Adaptation
ACL2011読み会: Query Weighting for Ranking Model Adaptation
 

Kürzlich hochgeladen

2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
ssuserbefd24
 

Kürzlich hochgeladen (11)

論文紹介:ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
論文紹介:ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation論文紹介:ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
論文紹介:ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
 
Amazon Cognitoで実装するパスキー (Security-JAWS【第33回】 勉強会)
Amazon Cognitoで実装するパスキー (Security-JAWS【第33回】 勉強会)Amazon Cognitoで実装するパスキー (Security-JAWS【第33回】 勉強会)
Amazon Cognitoで実装するパスキー (Security-JAWS【第33回】 勉強会)
 
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
 
Intranet Development v1.0 (TSG LIVE! 12 LT )
Intranet Development v1.0 (TSG LIVE! 12 LT )Intranet Development v1.0 (TSG LIVE! 12 LT )
Intranet Development v1.0 (TSG LIVE! 12 LT )
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
 
5/22 第23回 Customer系エンジニア座談会のスライド 公開用 西口瑛一
5/22 第23回 Customer系エンジニア座談会のスライド 公開用 西口瑛一5/22 第23回 Customer系エンジニア座談会のスライド 公開用 西口瑛一
5/22 第23回 Customer系エンジニア座談会のスライド 公開用 西口瑛一
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
 
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
 
20240523_IoTLT_vol111_kitazaki_v1___.pdf
20240523_IoTLT_vol111_kitazaki_v1___.pdf20240523_IoTLT_vol111_kitazaki_v1___.pdf
20240523_IoTLT_vol111_kitazaki_v1___.pdf
 
論文紹介:Deep Occlusion-Aware Instance Segmentation With Overlapping BiLayers
論文紹介:Deep Occlusion-Aware Instance Segmentation With Overlapping BiLayers論文紹介:Deep Occlusion-Aware Instance Segmentation With Overlapping BiLayers
論文紹介:Deep Occlusion-Aware Instance Segmentation With Overlapping BiLayers
 
ロボットマニピュレーションの作業・動作計画 / rosjp_planning_for_robotic_manipulation_20240521
ロボットマニピュレーションの作業・動作計画 / rosjp_planning_for_robotic_manipulation_20240521ロボットマニピュレーションの作業・動作計画 / rosjp_planning_for_robotic_manipulation_20240521
ロボットマニピュレーションの作業・動作計画 / rosjp_planning_for_robotic_manipulation_20240521
 

KDD2013読み会: Direct Optimization of Ranking Measures