Suche senden
Hochladen
A Neural Attention Model for Sentence Summarization [Rush+2015]
•
24 gefällt mir
•
17,334 views
Yuta Kikuchi
Folgen
in proceedings of EMNLP2015
Weniger lesen
Mehr lesen
Technologie
Melden
Teilen
Melden
Teilen
1 von 46
Jetzt herunterladen
Downloaden Sie, um offline zu lesen
Empfohlen
ディープラーニングゼミ TensorFlowで学ぶ理論と実践
ディープラーニングゼミ TensorFlowで学ぶ理論と実践
Yota Ishida
TensorFlowで遊んでみよう!
TensorFlowで遊んでみよう!
Kei Hirata
思いついたアルゴリズムを TensorFlow で実装してみた話
思いついたアルゴリズムを TensorFlow で実装してみた話
Shuhei Fujiwara
Basic deep learning_framework
Basic deep learning_framework
KazuhiroSato8
Linguistic Knowledge as Memory for Recurrent Neural Networks_論文紹介
Linguistic Knowledge as Memory for Recurrent Neural Networks_論文紹介
Masayoshi Kondo
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Masayoshi Kondo
Introduction to Chainer
Introduction to Chainer
Seiya Tokui
[DL輪読会] Residual Attention Network for Image Classification
[DL輪読会] Residual Attention Network for Image Classification
Deep Learning JP
Empfohlen
ディープラーニングゼミ TensorFlowで学ぶ理論と実践
ディープラーニングゼミ TensorFlowで学ぶ理論と実践
Yota Ishida
TensorFlowで遊んでみよう!
TensorFlowで遊んでみよう!
Kei Hirata
思いついたアルゴリズムを TensorFlow で実装してみた話
思いついたアルゴリズムを TensorFlow で実装してみた話
Shuhei Fujiwara
Basic deep learning_framework
Basic deep learning_framework
KazuhiroSato8
Linguistic Knowledge as Memory for Recurrent Neural Networks_論文紹介
Linguistic Knowledge as Memory for Recurrent Neural Networks_論文紹介
Masayoshi Kondo
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Masayoshi Kondo
Introduction to Chainer
Introduction to Chainer
Seiya Tokui
[DL輪読会] Residual Attention Network for Image Classification
[DL輪読会] Residual Attention Network for Image Classification
Deep Learning JP
Text Summarization Talk @ Saama Technologies
Text Summarization Talk @ Saama Technologies
Siddhartha Banerjee
最先端NLP勉強会2017_ACL17
最先端NLP勉強会2017_ACL17
Masayoshi Kondo
Introduction to Chainer: A Flexible Framework for Deep Learning
Introduction to Chainer: A Flexible Framework for Deep Learning
Seiya Tokui
EMNLP 2015 yomikai
EMNLP 2015 yomikai
Yo Ehara
Emnlp読み会資料
Emnlp読み会資料
Jiro Nishitoba
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
Shuyo Nakatani
Learning Better Embeddings for Rare Words Using Distributional Representations
Learning Better Embeddings for Rare Words Using Distributional Representations
Takanori Nakai
Humor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor Extraction
裕樹 奥田
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Shuyo Nakatani
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)
Shuyo Nakatani
Chainer v2 alpha
Chainer v2 alpha
Seiya Tokui
Chainer v3
Chainer v3
Seiya Tokui
強化学習その1
強化学習その1
nishio
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
Shuyo Nakatani
星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章
Shuyo Nakatani
サルでもわかるディープラーニング入門 (2017年) (In Japanese)
サルでもわかるディープラーニング入門 (2017年) (In Japanese)
Toshihiko Yamakami
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
CRI Japan, Inc.
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
sn679259
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
WSO2
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
CRI Japan, Inc.
Weitere ähnliche Inhalte
Andere mochten auch
Text Summarization Talk @ Saama Technologies
Text Summarization Talk @ Saama Technologies
Siddhartha Banerjee
最先端NLP勉強会2017_ACL17
最先端NLP勉強会2017_ACL17
Masayoshi Kondo
Introduction to Chainer: A Flexible Framework for Deep Learning
Introduction to Chainer: A Flexible Framework for Deep Learning
Seiya Tokui
EMNLP 2015 yomikai
EMNLP 2015 yomikai
Yo Ehara
Emnlp読み会資料
Emnlp読み会資料
Jiro Nishitoba
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
Shuyo Nakatani
Learning Better Embeddings for Rare Words Using Distributional Representations
Learning Better Embeddings for Rare Words Using Distributional Representations
Takanori Nakai
Humor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor Extraction
裕樹 奥田
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Shuyo Nakatani
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)
Shuyo Nakatani
Chainer v2 alpha
Chainer v2 alpha
Seiya Tokui
Chainer v3
Chainer v3
Seiya Tokui
強化学習その1
強化学習その1
nishio
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
Shuyo Nakatani
星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章
Shuyo Nakatani
サルでもわかるディープラーニング入門 (2017年) (In Japanese)
サルでもわかるディープラーニング入門 (2017年) (In Japanese)
Toshihiko Yamakami
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
Andere mochten auch
(17)
Text Summarization Talk @ Saama Technologies
Text Summarization Talk @ Saama Technologies
最先端NLP勉強会2017_ACL17
最先端NLP勉強会2017_ACL17
Introduction to Chainer: A Flexible Framework for Deep Learning
Introduction to Chainer: A Flexible Framework for Deep Learning
EMNLP 2015 yomikai
EMNLP 2015 yomikai
Emnlp読み会資料
Emnlp読み会資料
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
Learning Better Embeddings for Rare Words Using Distributional Representations
Learning Better Embeddings for Rare Words Using Distributional Representations
Humor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor Extraction
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)
Chainer v2 alpha
Chainer v2 alpha
Chainer v3
Chainer v3
強化学習その1
強化学習その1
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章
サルでもわかるディープラーニング入門 (2017年) (In Japanese)
サルでもわかるディープラーニング入門 (2017年) (In Japanese)
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Kürzlich hochgeladen
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
CRI Japan, Inc.
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
sn679259
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
WSO2
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
CRI Japan, Inc.
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
Toru Tamaki
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
Toru Tamaki
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
atsushi061452
Kürzlich hochgeladen
(10)
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
A Neural Attention Model for Sentence Summarization [Rush+2015]
1.
2015/10/24 EMNLP2015読み会@PFI kiyukuta
2.
文の要約 文を短くする(言い換えとかも含めて) !
3.
文の要約 文を短くする(言い換えとかも含めて) ! Document Summarization 文書から短い文書を作る Sentence Compression 文から単語を削除して短くする 語順の入れ替えも無し
4.
headline generationやvery short
summary とか言われるタスクとほぼおなじ NN機械翻訳で話題のAttentionモデルを移植 (ただし,各コンポーネントを簡易化している) 背景 This (3.2節の最後) 機械翻訳からインスパイアされた手法が以前から存在 + 最近はNeural Networkベースの機械翻訳が盛ん
5.
提案手法 まず論文の図を使ってざっくり説明 そのあと式を使って説明
6.
Figure1. 提案手法の処理(終了時)の例 論文にある実例でざっくりイメージをつかむ
7.
…
8.
…
9.
… ?
10.
… ? 結論からいうと 入力単語ベクトルを荷重平均 して使うときの荷重
11.
途中状態で説明
12.
システムが russia calls
for joint front まで出力した状態 次の出力単語 (against)をどう決めるか 途中状態で説明
13.
weighted average 次の単語 をどう決めるか 過去の自分の予測単語c個と入力文中の単語を利用 単語ベクトルの荷重平均ベクトル
14.
荷重はそのときの文脈情報でその都度決める attention!! =
15.
式使った説明
16.
原文xが与えられた時の要約文yの条件付き確率
17.
今回の出力単語 過去c個の出力入力
18.
19.
calls for ニューラル言語モデル[Bengio2003] 文脈から次の単語を予測 softmax 大きく
20.
加重平均ベクトル を求める関数 3種類 うち一つが本命のattention
21.
エンコーダー1 単なる単語ベクトルの平均 - 過去の出力情報使わない - 全ての単語が同じ重み 使わない
22.
エンコーダー2 … … … … - 畳み込み - max-pooling
(size: 2) のセットをn回繰り返す これも使わない ↑ は無いけどイメージとしては
23.
エンコーダー3
24.
エンコーダー3
25.
エンコーダー3 ……
26.
( ) エンコーダー3 …… i =
27.
( ) エンコーダー3 …… i =
28.
( ) エンコーダー3 …… i =
29.
エンコーダー3 ……
30.
エンコーダー3 …… ……
31.
エンコーダー3 …… weighted average ……
32.
エンコーダー3 …… weighted average ……
33.
34.
負の対数尤度を最小化
35.
ビームサーチ
36.
時には原文の単語をそのまま抽出した方が良いかもしれない 提案モデル unigram素性 bigram素性 trigram素性 reordering素性 を学習することで 提案モデルのスコアが低い時はそのまま抽出
37.
細かい設定は割愛 DUC2003,2004の公式データ : 500事例 Gigaword
corpusの一文目とタイトル : 400万事例 実験
38.
from authors slide http://people.seas.harvard.edu/
srush/emnlp2015_slides.pdf 抽出のやつ
39.
ROUGEによる既存研究との比較
40.
ROUGEは「正解との表層の被り」がスコアになるので Extraction要素を加えたABS+の方が良い
41.
場所や人などのキーワードは拾える ! 構文的に誤った並べ替えが発生してしまったり 事例観察
42.
誤った主語
43.
人手要約者の「短くしたいバイアス」があるのでnzみたいな省略は 頻繁に起きている(はず)なので,対応が取れている(はず) foreign minister→fmも同様 なんかすごい言い換え +
44.
なんかすごい言い換えてるけど間違っている more examples in
the author s slide: http://people.seas.harvard.edu/ srush/emnlp2015_slides.pdf
Jetzt herunterladen