SlideShare ist ein Scribd-Unternehmen logo
1 von 26
論文紹介ゼミ
Generating Better Search Engine Text Advertisements
with Deep Reinforcement Learning
北海道大学大学院情報科学研究科
調和系工学研究室
修士2年 吉田拓海
論文情報
• タイトル
– Generating Better Search Engine Text Advertisements with
Deep Reinforcement Learning
• 学会
– KDD2019(Applied Data Science Track Papers)
• https://www.kdd.org/kdd2019/accepted-papers/view/generating-better-
search-engine-text-advertisements-with-deep-reinforcement
– 著者
• John Hughes1*, Keng-Hao2 Chang and Ruofei Zhang2
– 1. UC Berkeley (*. Microsoftのインターン)
– 2. Microsoft
• まとめ
– 魅力的(高CTR)な検索エンジン広告を生成
• Self Critical Sequence Training(SCST)を適用
– 微分不可能なmetric(予想クリック率)を最適化
• 自動評価と人間による評価
– SCSTの適用によって予想クリック率の向上,魅力の向上を実証
– 文法的精度を大きく低下させない
1
背景
• 高いクリック率(広告が魅力的で関連性がある)場合
広告主と検索エンジンの両方に利益をもたらす
– ユーザがクリックしたときのみ支払い(広告主→検索エンジン)
• 検索エンジンの広告文生成
– 2つの目的
• 人間が作ったものに近い
• 高いクリック率
2
ランディングページと広告の例
対象とする広告
• 検索エンジン(Bing)
3
クエリ
広告タイトル
広告本文
クリック
ランディングページ
広告タイトル/本文を
ランディングページのタイトル/本文から生成
モデル
• 広告のタイトルと本文の予測をseq2seqとして扱う
– landing pageのタイトルと本文
– 広告のタイトルと本文
• 損失関数
– 既存のlanding page(𝑦∗)と広告(𝑥∗)を模倣するように学習
– CTR(クリック率)を高めるように学習
– 最終的な損失関数
4
モデル
• CTRを高める学習のための項
– 𝐶𝑇𝑅(𝑦)
• oracle modelによって予測された広告𝑦のCTR
• 先行研究(Microsoft)のCTR予測モデル[1]を使用
– large-scale logistic regression
5
[1] X. Ling, W. Deng, C. Gu, H. Zhou, C. Li, and F. Sun. Model ensemble for clickprediction in bing
search ads. InProceedings of the 26th International Conferenceon World Wide Web Companion,
pages 689–698. International World Wide WebConferences Steering Committee, 2017.
モデル
• Parallel Encoder/Decoder
– 標準的なRNNのEncoder-Decoderモデルをもとに構築
• 𝑘 sequencesを単一の潜在状態𝑠にencode
– Bi-directional LSTMの最終層の隠れ状態を結合することで𝑠を取得
• 𝑙 sequencesを出力(decode)
– 𝑠を初期状態とするLSTMでタイトル𝑦 𝑇
, 本文𝑦 𝐵
を予測
6
𝑘 = 𝑙 = 2
概略図
モデル
• Attention
– attention score[1,2]
– normalized scores[3]
• 過去ステップのscoreを用いて正規化
– context vector
7
参考
[1] M. Luong, H. Pham, and C. D. Manning. Effective approaches to attention-based neural machine
translation.CoRR, abs/1508.04025, 2015.
[2] R. Paulus, C. Xiong, and R. Socher. A deep reinforced model for abstractive summarization.arXiv
preprint arXiv:1705.04304, 2017.
[3] B. Sankaran, H. Mi, Y. Al-Onaizan, and A. Ittycheriah. Temporal attention model for neural
machine translation.CoRR, abs/1608.02927, 2016.
文献[2]から引用
encoder
decoder
モデル
• Output
– decoderのタイムステップ𝑖では以下のものが出力される
• LSTMのhidden state ℎ𝑖
𝐷
• attention distributions 𝛼𝑖,𝑗
𝑥 𝑇
, 𝛼𝑖,𝑗
𝑥 𝐵
• context vectors 𝑐𝑡
𝑥 𝑇
, 𝑐𝑡
𝑥 𝐵
– これらから潜在的単語出力分布𝑝 𝑣𝑜𝑐𝑎𝑏, 𝑝𝑐𝑜𝑝𝑦を予測する
8
[1] R. Paulus, C. Xiong, and R. Socher.
A deep reinforced model for abstractive
summarization.arXiv preprint
arXiv:1705.04304, 2017.
文献[1]から持ってきた図
(前ページの文献[2])
モデル
• Output
– 最終的な出力
9
𝑊𝑒𝑚𝑏:単語の埋め込み行列(LSTM入力前にも使用)
学習するパラメータ
• 4つのLSTM
• 𝑊𝑒𝑚𝑏, 𝑊𝑝
• 𝑏 𝑢
𝐷
, 𝑊𝑢
𝐷
• (attentionは?)
参考
[1] A. See, P. J. Liu, and C. D. Manning. Get to the point: Summarization withpointer-generator networks.CoRR, abs/1704.04368, 2017.
[2] https://www.slideshare.net/ponta63/gettothepointacl17
新しい単語を生成
原文の単語を使いまわす
モデル
• Output 図[1]
10
[1] A. See, P. J. Liu, and C. D. Manning. Get to the point: Summarization
withpointer-generator networks.CoRR, abs/1704.04368, 2017.
context vectorとDecoder(LSTM hidden state)
から単語分布を得る
モデル
• Output 図[1]
11
[1] A. See, P. J. Liu, and C. D. Manning. Get to the point: Summarization
withpointer-generator networks.CoRR, abs/1704.04368, 2017.
𝑝 𝑣𝑎𝑐𝑎𝑏
新しい単語を生成
𝑝𝑐𝑜𝑝𝑦
原文の単語を使いまわす(copy)
スイッチ変数:𝑢
モデル
• Self Critical Sequence Training
– CTRに関する誤差項𝐿 𝐶𝑇𝑅は𝜃で微分できない
– RAINFORCE trick[1]を使って勾配を計算
– Self Critical Sequence Trainingではベースライン 𝑦を導入
• これによって分散が下がる
• ベースライン 𝑦としてarg-maxの出力を使用
12
参考
[1] R. J. Williams. Simple statistical gradient-following algorithms for
connectionistreinforcement learning.Machine Learning, 8:229–256, 1992.
[2] https://www.slideshare.net/YoshitakaUshiku/selfcritical-sequence-training-for-image-
captioning-cv-cvpr-2017
モデル
• Self Critical Sequence Training
13
(A) 𝑦が 𝑦より高い報酬だった場合
𝑦がとられる確率が増加
(B) 𝑦が 𝑦より低い報酬だった場合
𝑦がとられる確率が減少
実験 データ
• Bing Ads Data
– ランディングページと広告のペア
• 600,000
– 各ドメインで5回以上出現する例を削除
• 少数の広告主が広告の大部分を占めている
• その多くが同じテンプレートを使っている
– 結果として323,387に
• train, validation, testに分割
– ランディングページを正規化
• 句読点を含まない,すべて小文字に
– 広告も同様に正規化
• ?, -は残す
14
実験
• Training
– 事前学習
• 𝐿 𝑋𝐸で学習
– そのあと𝐿 𝑡𝑜𝑡𝑎𝑙で学習(Self Critical Sequence Training)
– 学習中CTRを推定するためにCTR予測で学習させたoracle modelを
使用
• 学習中はブラックボックスとして扱われる
• 同じくmicrosoftの人が著者の先行研究のCTR予測モデル[1]を使用
– large-scale logistic regression
15
[1] X. Ling, W. Deng, C. Gu, H. Zhou, C. Li, and F. Sun. Model ensemble for clickprediction in bing
search ads. InProceedings of the 26th International Conferenceon World Wide Web Companion,
pages 689–698. International World Wide WebConferences Steering Committee, 2017.
実験
• Automatic Evaluation
– Click Rate
• oracle modelとまた別のCTR予測モデルの出力値
– ROUGE-L
• 2つのtextの最長共通部分単語列(LCS)を評価する指標
– LCS: Longest Common Subsequence
• LCSのF値
• 例[1]
– LCS = 9
– 適合率(Precision)=
9
12
– 再現率(Recall)=
9
11
– ROUGE-L=
2𝑅𝑒𝑐𝑎𝑙𝑙∙𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛
𝑅𝑒𝑐𝑎𝑙𝑙+𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛
16
長さ
𝑟: 11
ℎ1: 12
参考
[1]平尾 努, 磯崎 秀樹, 須藤 克仁, Duh Kevin, 塚田 元, 永田 昌明, “語順の相関に基づく機械翻訳の自動評価法” 自然言語処理,
Vol.21, No.3, pp.421-444, 2014, https://www.jstage.jst.go.jp/article/jnlp/21/3/21_421/_article/-char/ja/
実験 結果
• Automatic Evaluation
– 𝛾 = 0.05が最適
– 𝛾 = 0.02
• ROUGE-Lが急速に減少,oracleにoverfitし文法的質が悪い分が生成さ
れる,early stoppingですぐ終わる(学習)
– 𝛾 = 0.10
• クリック率が低い
17
oracle modelと同じデータセット(別の期間)で
学習させたニューラルネットによるCTR予測
実験 結果
• Automatic Evaluation
– Baseline(おそらく𝐿 𝑋𝐸のみで学習)とSCSTを比較
• クリック率を6.7%増し
• ROUGE scoreに有意な差はない
– DNN Predictionによるクリック率も4.8%増し
• oracle modelにoverfitしてない
– ROUGE scoreはどのモデルも有意差なし
– クリック率が増えてもROUGE scoreが大幅に変化しない
• クリック率が高い人手で書かれた広告の空間内で最適化されてる
18
実験 結果
• Automatic Evaluation
– SCSTで学習させたモデルは同じ単語,フレーズを繰り返す傾向
• 恐らくoracle modelで魅力的とされる単語を繰り返してる
– 繰り返さないように制約をかける(repeats masked)
• クリック率は低下する
• 先ほどと同様,SCSTによってクリック率は上昇
19
実験 結果
• Human Evaluation
– 2つの実験を実施
• 広告を評価及び比較するために訓練された人を募集した
– 実験1
• 被験者に単一の広告とランディングページが表示,以下の質問
– 広告に不要な単語,フレーズの繰り返しはありますか?
[Yes/No]
– 広告のタイトルとコピー(?)は人間が書いたように見えるか?
[Yes/No]
– 4段階評価[Good/Fair/Bad/Nonsenseor Broken]
» Good: Perfect grammar(完璧な文法)
» Fair: Slight grammar errors or repeats(軽い文法エラー/繰り返し)
» Bad: Major grammar errors or repeats(重大な文法エラー/繰り返し)
» Nonsense or Broken: Including foreign language or landing page
not loading (外国語が含まれる/LPが読み込まれない?)
• 各モデルを評価するために2000 data point
• どの例がどのモデルのモノかわからないようにシャッフル
• 質問の回答が一貫するようにいくつかの広告を繰り返した
20
実験 結果
• Human Evaluation
– 繰り返しの制約をつけたモデル(repeats masked)は
文法と人間作との類似度の評価が向上
– Baseline(masked)とSCST(masked)を比較
• SCSTの生成する広告は人間作に似ているとみなされる
• “Good”は減るがそれほど大きくない
– SCSTは文法的質を低下させない(?)
– 事前学習で得た言語モデルを傷つけない
– Nonsense/Brokenが多い
• ランディングページの期限切れ,外国語によるもの
– 人間作の広告も同様の割合
21
実験 結果
• Human Evaluation
– 実験2
• repeats maskedモデルを対象(繰り返しに制約をかけたモデル)
• 1000のランディングページの広告を並べて比較
• 2つの広告をランディングページに関連付けられたキーワード/クエリと
ともに表示
• 質問:クエリが与えられた場合,どの広告コピーが好みですか?
[Ad copy #1 / Ad copy#2 / Ads are identical]
• 広告はランダムな順序で表示
– 結果
• Baseline < SCST
22
生成例
• SCSTモデルの広告
– 無料,行動を表すフレーズ,数字などが含まれる
• 広告の魅力を高めることが知られている[1]
23
[1] S. Thomaidou. Automated Creation and Optimization of Online Advertising Campaigns. PhD thesis, Ph. D.
thesis, Department of Informatics, Athens University of Economics and Business, 2014.
生成例 24
まとめ
• 魅力的(高CTR)な検索エンジン広告を生成
– Self Critical Sequence Training(SCST)を適用
• 微分不可能なmetric(予想クリック率)を最適化
– 自動評価と人間による評価
• SCSTの適用によって予想クリック率の向上,魅力の向上を実証
• 文法的精度を大きく低下させない
25

Weitere ähnliche Inhalte

Was ist angesagt?

[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational AutoencoderDeep Learning JP
 
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured PredictionDeep Learning JP
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話Yusuke Uchida
 
Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会)
Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会)Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会)
Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会)Yoshitaka Ushiku
 
DeepLearning 14章 自己符号化器
DeepLearning 14章 自己符号化器DeepLearning 14章 自己符号化器
DeepLearning 14章 自己符号化器hirono kawashima
 
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative ModelingDeep Learning JP
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習Eiji Uchibe
 
MS COCO Dataset Introduction
MS COCO Dataset IntroductionMS COCO Dataset Introduction
MS COCO Dataset IntroductionShinagawa Seitaro
 
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)cvpaper. challenge
 
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)Yoshitaka Ushiku
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイcvpaper. challenge
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Surveytmtm otm
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題joisino
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向Koichiro Mori
 
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII
 
[DL輪読会]Hindsight Experience Replay
[DL輪読会]Hindsight Experience Replay[DL輪読会]Hindsight Experience Replay
[DL輪読会]Hindsight Experience ReplayDeep Learning JP
 
【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2Hirokatsu Kataoka
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明Satoshi Hara
 

Was ist angesagt? (20)

[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
 
Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会)
Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会)Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会)
Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会)
 
DeepLearning 14章 自己符号化器
DeepLearning 14章 自己符号化器DeepLearning 14章 自己符号化器
DeepLearning 14章 自己符号化器
 
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 
MS COCO Dataset Introduction
MS COCO Dataset IntroductionMS COCO Dataset Introduction
MS COCO Dataset Introduction
 
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
 
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向
 
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
 
[DL輪読会]Hindsight Experience Replay
[DL輪読会]Hindsight Experience Replay[DL輪読会]Hindsight Experience Replay
[DL輪読会]Hindsight Experience Replay
 
【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
 

Ähnlich wie Generating Better Search Engine Text Advertisements with Deep Reinforcement Learning

[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...Deep Learning JP
 
Abstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminarAbstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminarKodaira Tomonori
 
最先端NLP勉強会2017_ACL17
最先端NLP勉強会2017_ACL17最先端NLP勉強会2017_ACL17
最先端NLP勉強会2017_ACL17Masayoshi Kondo
 
Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演
Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演
Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演Hironori Washizaki
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for PredictionDeep Learning JP
 
【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond
【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond
【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and BeyondTakashi YAMAMURA
 
Learning to summarize from human feedback
Learning to summarize from human feedbackLearning to summarize from human feedback
Learning to summarize from human feedbackharmonylab
 
Fast abstractive summarization with reinforce selected sentence rewriting
Fast abstractive summarization with reinforce selected sentence rewritingFast abstractive summarization with reinforce selected sentence rewriting
Fast abstractive summarization with reinforce selected sentence rewritingYasuhide Miura
 
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」Shuji Morisaki
 
Qua s tom-メトリクスによるソフトウェアの品質把握と改善
Qua s tom-メトリクスによるソフトウェアの品質把握と改善Qua s tom-メトリクスによるソフトウェアの品質把握と改善
Qua s tom-メトリクスによるソフトウェアの品質把握と改善Hironori Washizaki
 
2010 電子情報通信学会論文誌-要求変更によるソースコードへのインパクトを分析するシステムの開発と評価
2010 電子情報通信学会論文誌-要求変更によるソースコードへのインパクトを分析するシステムの開発と評価2010 電子情報通信学会論文誌-要求変更によるソースコードへのインパクトを分析するシステムの開発と評価
2010 電子情報通信学会論文誌-要求変更によるソースコードへのインパクトを分析するシステムの開発と評価n-yuki
 
鷲崎 メトリクスとGQMチュートリアル-公開版-20130912
鷲崎 メトリクスとGQMチュートリアル-公開版-20130912鷲崎 メトリクスとGQMチュートリアル-公開版-20130912
鷲崎 メトリクスとGQMチュートリアル-公開版-20130912Hironori Washizaki
 
Sigir2013 勉強会資料
Sigir2013 勉強会資料Sigir2013 勉強会資料
Sigir2013 勉強会資料Mitsuo Yamamoto
 
[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...
[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...
[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...Deep Learning JP
 
QAアーキテクチャの設計による 説明責任の高いテスト・品質保証
QAアーキテクチャの設計による説明責任の高いテスト・品質保証QAアーキテクチャの設計による説明責任の高いテスト・品質保証
QAアーキテクチャの設計による 説明責任の高いテスト・品質保証Yasuharu Nishi
 
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...Association for Computational Linguistics
 
GeneratingWikipedia_ICLR18_論文紹介
GeneratingWikipedia_ICLR18_論文紹介GeneratingWikipedia_ICLR18_論文紹介
GeneratingWikipedia_ICLR18_論文紹介Masayoshi Kondo
 
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Toru Fujino
 
MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習Preferred Networks
 

Ähnlich wie Generating Better Search Engine Text Advertisements with Deep Reinforcement Learning (20)

[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
 
Abstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminarAbstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminar
 
最先端NLP勉強会2017_ACL17
最先端NLP勉強会2017_ACL17最先端NLP勉強会2017_ACL17
最先端NLP勉強会2017_ACL17
 
Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演
Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演
Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
 
【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond
【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond
【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond
 
Learning to summarize from human feedback
Learning to summarize from human feedbackLearning to summarize from human feedback
Learning to summarize from human feedback
 
Fast abstractive summarization with reinforce selected sentence rewriting
Fast abstractive summarization with reinforce selected sentence rewritingFast abstractive summarization with reinforce selected sentence rewriting
Fast abstractive summarization with reinforce selected sentence rewriting
 
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
 
Qua s tom-メトリクスによるソフトウェアの品質把握と改善
Qua s tom-メトリクスによるソフトウェアの品質把握と改善Qua s tom-メトリクスによるソフトウェアの品質把握と改善
Qua s tom-メトリクスによるソフトウェアの品質把握と改善
 
2010 電子情報通信学会論文誌-要求変更によるソースコードへのインパクトを分析するシステムの開発と評価
2010 電子情報通信学会論文誌-要求変更によるソースコードへのインパクトを分析するシステムの開発と評価2010 電子情報通信学会論文誌-要求変更によるソースコードへのインパクトを分析するシステムの開発と評価
2010 電子情報通信学会論文誌-要求変更によるソースコードへのインパクトを分析するシステムの開発と評価
 
鷲崎 メトリクスとGQMチュートリアル-公開版-20130912
鷲崎 メトリクスとGQMチュートリアル-公開版-20130912鷲崎 メトリクスとGQMチュートリアル-公開版-20130912
鷲崎 メトリクスとGQMチュートリアル-公開版-20130912
 
Sigir2013 勉強会資料
Sigir2013 勉強会資料Sigir2013 勉強会資料
Sigir2013 勉強会資料
 
[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...
[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...
[DL輪読会]Making Sense of Vision and Touch: Self-Supervised Learning of Multimod...
 
QAアーキテクチャの設計による 説明責任の高いテスト・品質保証
QAアーキテクチャの設計による説明責任の高いテスト・品質保証QAアーキテクチャの設計による説明責任の高いテスト・品質保証
QAアーキテクチャの設計による 説明責任の高いテスト・品質保証
 
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
 
GeneratingWikipedia_ICLR18_論文紹介
GeneratingWikipedia_ICLR18_論文紹介GeneratingWikipedia_ICLR18_論文紹介
GeneratingWikipedia_ICLR18_論文紹介
 
japan teacher
japan teacherjapan teacher
japan teacher
 
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
 
MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習
 

Mehr von harmonylab

【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也harmonylab
 
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究harmonylab
 
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...harmonylab
 
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究harmonylab
 
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究harmonylab
 
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...harmonylab
 
DLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
DLゼミ: MobileOne: An Improved One millisecond Mobile BackboneDLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
DLゼミ: MobileOne: An Improved One millisecond Mobile Backboneharmonylab
 
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat ModelsDLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Modelsharmonylab
 
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose EstimationDLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimationharmonylab
 
Voyager: An Open-Ended Embodied Agent with Large Language Models
Voyager: An Open-Ended Embodied Agent with Large Language ModelsVoyager: An Open-Ended Embodied Agent with Large Language Models
Voyager: An Open-Ended Embodied Agent with Large Language Modelsharmonylab
 
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose EstimationDLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimationharmonylab
 
ReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language ModelsReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language Modelsharmonylab
 
形態素解析を用いた帝国議会議事速記録の変遷に関する研究
形態素解析を用いた帝国議会議事速記録の変遷に関する研究形態素解析を用いた帝国議会議事速記録の変遷に関する研究
形態素解析を用いた帝国議会議事速記録の変遷に関する研究harmonylab
 
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究harmonylab
 
灯油タンク内の液面高計測を用いた 灯油残量推定システムに関する研究
灯油タンク内の液面高計測を用いた灯油残量推定システムに関する研究灯油タンク内の液面高計測を用いた灯油残量推定システムに関する研究
灯油タンク内の液面高計測を用いた 灯油残量推定システムに関する研究harmonylab
 
深層自己回帰モデルを用いた俳句の生成と評価に関する研究
深層自己回帰モデルを用いた俳句の生成と評価に関する研究深層自己回帰モデルを用いた俳句の生成と評価に関する研究
深層自己回帰モデルを用いた俳句の生成と評価に関する研究harmonylab
 
競輪におけるレーティングシステムを用いた予想記事生成に関する研究
競輪におけるレーティングシステムを用いた予想記事生成に関する研究競輪におけるレーティングシステムを用いた予想記事生成に関する研究
競輪におけるレーティングシステムを用いた予想記事生成に関する研究harmonylab
 
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究harmonylab
 
A Study on Estimation of Household Kerosene Consumption for Optimization of D...
A Study on Estimation of Household Kerosene Consumption for Optimization of D...A Study on Estimation of Household Kerosene Consumption for Optimization of D...
A Study on Estimation of Household Kerosene Consumption for Optimization of D...harmonylab
 
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究harmonylab
 

Mehr von harmonylab (20)

【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
 
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
 
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
 
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
 
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
 
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
 
DLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
DLゼミ: MobileOne: An Improved One millisecond Mobile BackboneDLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
DLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
 
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat ModelsDLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
 
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose EstimationDLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
 
Voyager: An Open-Ended Embodied Agent with Large Language Models
Voyager: An Open-Ended Embodied Agent with Large Language ModelsVoyager: An Open-Ended Embodied Agent with Large Language Models
Voyager: An Open-Ended Embodied Agent with Large Language Models
 
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose EstimationDLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
 
ReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language ModelsReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language Models
 
形態素解析を用いた帝国議会議事速記録の変遷に関する研究
形態素解析を用いた帝国議会議事速記録の変遷に関する研究形態素解析を用いた帝国議会議事速記録の変遷に関する研究
形態素解析を用いた帝国議会議事速記録の変遷に関する研究
 
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
 
灯油タンク内の液面高計測を用いた 灯油残量推定システムに関する研究
灯油タンク内の液面高計測を用いた灯油残量推定システムに関する研究灯油タンク内の液面高計測を用いた灯油残量推定システムに関する研究
灯油タンク内の液面高計測を用いた 灯油残量推定システムに関する研究
 
深層自己回帰モデルを用いた俳句の生成と評価に関する研究
深層自己回帰モデルを用いた俳句の生成と評価に関する研究深層自己回帰モデルを用いた俳句の生成と評価に関する研究
深層自己回帰モデルを用いた俳句の生成と評価に関する研究
 
競輪におけるレーティングシステムを用いた予想記事生成に関する研究
競輪におけるレーティングシステムを用いた予想記事生成に関する研究競輪におけるレーティングシステムを用いた予想記事生成に関する研究
競輪におけるレーティングシステムを用いた予想記事生成に関する研究
 
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
 
A Study on Estimation of Household Kerosene Consumption for Optimization of D...
A Study on Estimation of Household Kerosene Consumption for Optimization of D...A Study on Estimation of Household Kerosene Consumption for Optimization of D...
A Study on Estimation of Household Kerosene Consumption for Optimization of D...
 
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
 

Kürzlich hochgeladen

Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 

Kürzlich hochgeladen (7)

Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 

Generating Better Search Engine Text Advertisements with Deep Reinforcement Learning

  • 1. 論文紹介ゼミ Generating Better Search Engine Text Advertisements with Deep Reinforcement Learning 北海道大学大学院情報科学研究科 調和系工学研究室 修士2年 吉田拓海
  • 2. 論文情報 • タイトル – Generating Better Search Engine Text Advertisements with Deep Reinforcement Learning • 学会 – KDD2019(Applied Data Science Track Papers) • https://www.kdd.org/kdd2019/accepted-papers/view/generating-better- search-engine-text-advertisements-with-deep-reinforcement – 著者 • John Hughes1*, Keng-Hao2 Chang and Ruofei Zhang2 – 1. UC Berkeley (*. Microsoftのインターン) – 2. Microsoft • まとめ – 魅力的(高CTR)な検索エンジン広告を生成 • Self Critical Sequence Training(SCST)を適用 – 微分不可能なmetric(予想クリック率)を最適化 • 自動評価と人間による評価 – SCSTの適用によって予想クリック率の向上,魅力の向上を実証 – 文法的精度を大きく低下させない 1
  • 3. 背景 • 高いクリック率(広告が魅力的で関連性がある)場合 広告主と検索エンジンの両方に利益をもたらす – ユーザがクリックしたときのみ支払い(広告主→検索エンジン) • 検索エンジンの広告文生成 – 2つの目的 • 人間が作ったものに近い • 高いクリック率 2 ランディングページと広告の例
  • 5. モデル • 広告のタイトルと本文の予測をseq2seqとして扱う – landing pageのタイトルと本文 – 広告のタイトルと本文 • 損失関数 – 既存のlanding page(𝑦∗)と広告(𝑥∗)を模倣するように学習 – CTR(クリック率)を高めるように学習 – 最終的な損失関数 4
  • 6. モデル • CTRを高める学習のための項 – 𝐶𝑇𝑅(𝑦) • oracle modelによって予測された広告𝑦のCTR • 先行研究(Microsoft)のCTR予測モデル[1]を使用 – large-scale logistic regression 5 [1] X. Ling, W. Deng, C. Gu, H. Zhou, C. Li, and F. Sun. Model ensemble for clickprediction in bing search ads. InProceedings of the 26th International Conferenceon World Wide Web Companion, pages 689–698. International World Wide WebConferences Steering Committee, 2017.
  • 7. モデル • Parallel Encoder/Decoder – 標準的なRNNのEncoder-Decoderモデルをもとに構築 • 𝑘 sequencesを単一の潜在状態𝑠にencode – Bi-directional LSTMの最終層の隠れ状態を結合することで𝑠を取得 • 𝑙 sequencesを出力(decode) – 𝑠を初期状態とするLSTMでタイトル𝑦 𝑇 , 本文𝑦 𝐵 を予測 6 𝑘 = 𝑙 = 2 概略図
  • 8. モデル • Attention – attention score[1,2] – normalized scores[3] • 過去ステップのscoreを用いて正規化 – context vector 7 参考 [1] M. Luong, H. Pham, and C. D. Manning. Effective approaches to attention-based neural machine translation.CoRR, abs/1508.04025, 2015. [2] R. Paulus, C. Xiong, and R. Socher. A deep reinforced model for abstractive summarization.arXiv preprint arXiv:1705.04304, 2017. [3] B. Sankaran, H. Mi, Y. Al-Onaizan, and A. Ittycheriah. Temporal attention model for neural machine translation.CoRR, abs/1608.02927, 2016. 文献[2]から引用
  • 9. encoder decoder モデル • Output – decoderのタイムステップ𝑖では以下のものが出力される • LSTMのhidden state ℎ𝑖 𝐷 • attention distributions 𝛼𝑖,𝑗 𝑥 𝑇 , 𝛼𝑖,𝑗 𝑥 𝐵 • context vectors 𝑐𝑡 𝑥 𝑇 , 𝑐𝑡 𝑥 𝐵 – これらから潜在的単語出力分布𝑝 𝑣𝑜𝑐𝑎𝑏, 𝑝𝑐𝑜𝑝𝑦を予測する 8 [1] R. Paulus, C. Xiong, and R. Socher. A deep reinforced model for abstractive summarization.arXiv preprint arXiv:1705.04304, 2017. 文献[1]から持ってきた図 (前ページの文献[2])
  • 10. モデル • Output – 最終的な出力 9 𝑊𝑒𝑚𝑏:単語の埋め込み行列(LSTM入力前にも使用) 学習するパラメータ • 4つのLSTM • 𝑊𝑒𝑚𝑏, 𝑊𝑝 • 𝑏 𝑢 𝐷 , 𝑊𝑢 𝐷 • (attentionは?) 参考 [1] A. See, P. J. Liu, and C. D. Manning. Get to the point: Summarization withpointer-generator networks.CoRR, abs/1704.04368, 2017. [2] https://www.slideshare.net/ponta63/gettothepointacl17 新しい単語を生成 原文の単語を使いまわす
  • 11. モデル • Output 図[1] 10 [1] A. See, P. J. Liu, and C. D. Manning. Get to the point: Summarization withpointer-generator networks.CoRR, abs/1704.04368, 2017. context vectorとDecoder(LSTM hidden state) から単語分布を得る
  • 12. モデル • Output 図[1] 11 [1] A. See, P. J. Liu, and C. D. Manning. Get to the point: Summarization withpointer-generator networks.CoRR, abs/1704.04368, 2017. 𝑝 𝑣𝑎𝑐𝑎𝑏 新しい単語を生成 𝑝𝑐𝑜𝑝𝑦 原文の単語を使いまわす(copy) スイッチ変数:𝑢
  • 13. モデル • Self Critical Sequence Training – CTRに関する誤差項𝐿 𝐶𝑇𝑅は𝜃で微分できない – RAINFORCE trick[1]を使って勾配を計算 – Self Critical Sequence Trainingではベースライン 𝑦を導入 • これによって分散が下がる • ベースライン 𝑦としてarg-maxの出力を使用 12 参考 [1] R. J. Williams. Simple statistical gradient-following algorithms for connectionistreinforcement learning.Machine Learning, 8:229–256, 1992. [2] https://www.slideshare.net/YoshitakaUshiku/selfcritical-sequence-training-for-image- captioning-cv-cvpr-2017
  • 14. モデル • Self Critical Sequence Training 13 (A) 𝑦が 𝑦より高い報酬だった場合 𝑦がとられる確率が増加 (B) 𝑦が 𝑦より低い報酬だった場合 𝑦がとられる確率が減少
  • 15. 実験 データ • Bing Ads Data – ランディングページと広告のペア • 600,000 – 各ドメインで5回以上出現する例を削除 • 少数の広告主が広告の大部分を占めている • その多くが同じテンプレートを使っている – 結果として323,387に • train, validation, testに分割 – ランディングページを正規化 • 句読点を含まない,すべて小文字に – 広告も同様に正規化 • ?, -は残す 14
  • 16. 実験 • Training – 事前学習 • 𝐿 𝑋𝐸で学習 – そのあと𝐿 𝑡𝑜𝑡𝑎𝑙で学習(Self Critical Sequence Training) – 学習中CTRを推定するためにCTR予測で学習させたoracle modelを 使用 • 学習中はブラックボックスとして扱われる • 同じくmicrosoftの人が著者の先行研究のCTR予測モデル[1]を使用 – large-scale logistic regression 15 [1] X. Ling, W. Deng, C. Gu, H. Zhou, C. Li, and F. Sun. Model ensemble for clickprediction in bing search ads. InProceedings of the 26th International Conferenceon World Wide Web Companion, pages 689–698. International World Wide WebConferences Steering Committee, 2017.
  • 17. 実験 • Automatic Evaluation – Click Rate • oracle modelとまた別のCTR予測モデルの出力値 – ROUGE-L • 2つのtextの最長共通部分単語列(LCS)を評価する指標 – LCS: Longest Common Subsequence • LCSのF値 • 例[1] – LCS = 9 – 適合率(Precision)= 9 12 – 再現率(Recall)= 9 11 – ROUGE-L= 2𝑅𝑒𝑐𝑎𝑙𝑙∙𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 𝑅𝑒𝑐𝑎𝑙𝑙+𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 16 長さ 𝑟: 11 ℎ1: 12 参考 [1]平尾 努, 磯崎 秀樹, 須藤 克仁, Duh Kevin, 塚田 元, 永田 昌明, “語順の相関に基づく機械翻訳の自動評価法” 自然言語処理, Vol.21, No.3, pp.421-444, 2014, https://www.jstage.jst.go.jp/article/jnlp/21/3/21_421/_article/-char/ja/
  • 18. 実験 結果 • Automatic Evaluation – 𝛾 = 0.05が最適 – 𝛾 = 0.02 • ROUGE-Lが急速に減少,oracleにoverfitし文法的質が悪い分が生成さ れる,early stoppingですぐ終わる(学習) – 𝛾 = 0.10 • クリック率が低い 17 oracle modelと同じデータセット(別の期間)で 学習させたニューラルネットによるCTR予測
  • 19. 実験 結果 • Automatic Evaluation – Baseline(おそらく𝐿 𝑋𝐸のみで学習)とSCSTを比較 • クリック率を6.7%増し • ROUGE scoreに有意な差はない – DNN Predictionによるクリック率も4.8%増し • oracle modelにoverfitしてない – ROUGE scoreはどのモデルも有意差なし – クリック率が増えてもROUGE scoreが大幅に変化しない • クリック率が高い人手で書かれた広告の空間内で最適化されてる 18
  • 20. 実験 結果 • Automatic Evaluation – SCSTで学習させたモデルは同じ単語,フレーズを繰り返す傾向 • 恐らくoracle modelで魅力的とされる単語を繰り返してる – 繰り返さないように制約をかける(repeats masked) • クリック率は低下する • 先ほどと同様,SCSTによってクリック率は上昇 19
  • 21. 実験 結果 • Human Evaluation – 2つの実験を実施 • 広告を評価及び比較するために訓練された人を募集した – 実験1 • 被験者に単一の広告とランディングページが表示,以下の質問 – 広告に不要な単語,フレーズの繰り返しはありますか? [Yes/No] – 広告のタイトルとコピー(?)は人間が書いたように見えるか? [Yes/No] – 4段階評価[Good/Fair/Bad/Nonsenseor Broken] » Good: Perfect grammar(完璧な文法) » Fair: Slight grammar errors or repeats(軽い文法エラー/繰り返し) » Bad: Major grammar errors or repeats(重大な文法エラー/繰り返し) » Nonsense or Broken: Including foreign language or landing page not loading (外国語が含まれる/LPが読み込まれない?) • 各モデルを評価するために2000 data point • どの例がどのモデルのモノかわからないようにシャッフル • 質問の回答が一貫するようにいくつかの広告を繰り返した 20
  • 22. 実験 結果 • Human Evaluation – 繰り返しの制約をつけたモデル(repeats masked)は 文法と人間作との類似度の評価が向上 – Baseline(masked)とSCST(masked)を比較 • SCSTの生成する広告は人間作に似ているとみなされる • “Good”は減るがそれほど大きくない – SCSTは文法的質を低下させない(?) – 事前学習で得た言語モデルを傷つけない – Nonsense/Brokenが多い • ランディングページの期限切れ,外国語によるもの – 人間作の広告も同様の割合 21
  • 23. 実験 結果 • Human Evaluation – 実験2 • repeats maskedモデルを対象(繰り返しに制約をかけたモデル) • 1000のランディングページの広告を並べて比較 • 2つの広告をランディングページに関連付けられたキーワード/クエリと ともに表示 • 質問:クエリが与えられた場合,どの広告コピーが好みですか? [Ad copy #1 / Ad copy#2 / Ads are identical] • 広告はランダムな順序で表示 – 結果 • Baseline < SCST 22
  • 24. 生成例 • SCSTモデルの広告 – 無料,行動を表すフレーズ,数字などが含まれる • 広告の魅力を高めることが知られている[1] 23 [1] S. Thomaidou. Automated Creation and Optimization of Online Advertising Campaigns. PhD thesis, Ph. D. thesis, Department of Informatics, Athens University of Economics and Business, 2014.
  • 26. まとめ • 魅力的(高CTR)な検索エンジン広告を生成 – Self Critical Sequence Training(SCST)を適用 • 微分不可能なmetric(予想クリック率)を最適化 – 自動評価と人間による評価 • SCSTの適用によって予想クリック率の向上,魅力の向上を実証 • 文法的精度を大きく低下させない 25