SlideShare ist ein Scribd-Unternehmen logo
1 von 18
1
DEEP LEARNING JP
[DL Papers]
http://deeplearning.jp/
“Breakpoint Transformers for Modeling and Tracking
Intermediate Beliefs” (EMNLP 2022)
Istuki Okimura, Matsuo Lab M1
アジェンダ
1 書誌情報
2 概要
3 問題意識
4 提案手法
5 実験設定
6 結果
2
1 書誌概要
タイトル: Breakpoint Transformers for Modeling and Tracking Intermediate Beliefs
出典: EMNLP2022
https://arxiv.org/abs/2211.07950
著者: Kyle Richardson, Ronen Tamari, Oren Sultanなど
(The Hebrew University of Jerusalem, AllenAI,…)
選んだ理由:移りゆく事象をモデルが把握する方法を学習させるという
モチベーションに興味があった
3
2 概要
• 自然言語処理において、モデルが内部でどのような信念状態を
持っているかの解釈は依然として困難であり、
特に物語理解のタスクにおいて、言語モデルがどのように世界の変化を
追跡しているのか不明な点がある。
• 本論文ではストーリーの中間地点における信念状態を学習、追跡する
新しい表現学習フレームワークであるブレイクポイントモデリングを提案。
• 既存の表現学習手法と比較して、信念状態の予測精度や処理効率、
予測の一貫性で優れることを示した。
• また、対応する質問応答モデルに組み込んだ場合でも性能が劣化しないため、
よりデバッグしやすいシステムへの発展可能性を示した。
4
3 問題意識
5
モデル内部の信念を理解し、解釈するのは困難な問題である
• 物語理解のようなタスクにおいて、
言語モデルの世界追跡能力には不明な点がある。
• 例えば、右図のようなストーリーを受けて、
”Where is the apple?” のような質問に答えるには
以下の能力を持つ必要がある。
 時間を通じて対象を追跡する能力
 他の知識と追跡する知識を区別する能力
• 一方で、モデルがある地点で特定の命題に関してどの
ような信念を持っているか
(例. その時点でりんごはどこにあると考えているのか)
を直接調べるのは困難である。
3 問題意識
6
モデルの任意の点における信念状態を学習、追跡できる手法を提案
• モデルがストーリーの任意の点
(ブレークポイント)において
命題への信念状態を学習するフレームワーク、
ブレークポイントモデリングを提案。
• 右図上のプログラミングのブレークポイント
のように、ストーリーの中間地点においての
あるべき信念状態を学習することで、
訓練時に特定の信念をモデルに教えること、
そして推論時に信念状態がデバッグできる
システムを目指す。
• 中間的な状態を学習することで、最後の質問に
対し一貫した回答が生成しやすくなるはず?
4 提案手法
7
提案手法の概要
1. ストーリーの中にブレークポイント
トークン[B]𝑗を挿入する
2. ブレークポイントで考えるべき命題の集合
𝑃𝑗 = 𝑝1, 𝑝2 … 𝑝𝑡 とそれぞれの命題に関する
真理値(true or false or unknowing)を用意する
3. 二つのエンコーダーを用いて、ブレークポイントと命題
のそれぞれの埋め込み表現𝑏と𝑐𝑝𝑟𝑜𝑝を作る
4. それぞれのブレークポイントとその命題に関する埋め
込みから、その命題に関する真理値を
予測するタスクを学習する
4 提案手法
8
ブレークポイントと命題の設定
ブレークポイント(“breakpoints”)
• ストーリーの中間地点にブレークポイントを示
す特殊なトークン[B]𝑗を挿入する
• ストーリーを入力するエンコーダー𝑒𝑛𝑐𝑠𝑡𝑜𝑟𝑦に
よって埋め込み表現𝑏𝑗に変換される
命題(“propositions”)
• 各ブレークポイント[B]𝑗においてテキスト命題
𝑃𝑗 = 𝑝1, 𝑝2 … 𝑝𝑡 のセットと関連づける
• 命題を入力するエンコーダー𝑒𝑛𝑐𝑝𝑟𝑜𝑝に
よって埋め込み表現𝑐𝑝𝑟𝑜𝑝に変換される
• それぞれの命題𝑝𝑘における状況をtrue, false,
unknownの3種類のラベルが与える
4 提案手法
9
学習方法
命題推論
𝑛個のストーリーからなるデータセット𝐷に関して、
各ストーリー𝑠 𝑖 に𝑚個のブレークポイント𝐵 𝑖 が存在するとする。
それぞれのブレークポイント𝑏𝑗に対して、 𝑡個の命題𝑝𝑘が存在し、
それぞれのラベル𝑦𝑗,𝑘
𝑖
が与えられた時、
そのラベルに対する論理式は𝑌
𝑗,𝑘
(𝑖)
𝑏𝑗, 𝑝𝑘 (=True or False)で表される。
𝑌
𝑗,𝑘
(𝑖)
𝑏𝑗, 𝑝𝑘 に対応するモデルの確率として、 Pr 𝑦𝑗,𝑘
𝑖
を用いると、損失は以下の式で表される。
ℒ𝑝𝑟𝑜𝑝 =
𝑖=1
𝑛
𝑗=1
𝑚
𝑘=1
𝑡
− log Pr 𝑦𝑗,𝑘
𝑖
5 実験設定
10
用いるデータセット1: CLUTRR [Shinha et al., 2019]
概要
人間が記述した家族関係を持つストーリー上のQA
作成方法
• クリーンサブセットに対し、各文の後に
ブレークポイントを追加する。
• その後、明示的なストーリーに由来する命題と
CLUTRRを拡張した証明タスク用に由来する命題を作
成し、基本的な命題のセットとする。
• 基本命題から否定命題や未知命題を含む追加命題を
一般的な制約を用いて追加する。
* イベント数の長さによってi.i.dとgeneralizationの
設定を作成し、実験する。
5 実験設定
11
用いるデータセット2: bAbI QA [Weston et al., 2016]
概要
ミクロ世界のエージェントに関する
ストーリー上のQA
* CLUTRRより全体的にイベントが長い
作成方法
• 各文の後にブレークポイントを追加する。
• Dyna-bAbIタスク生成器[amari et al., 2022]を
用いて基本的な命題のセットを作成する。
• 基本命題から否定命題や未知命題を含む
追加命題を一般的な制約を用いて追加する。
* 標準的な設定(i.i.d)と難易度の高い設定(hard QA)で
実験する。
出典:https://arxiv.org/pdf/1502.05698.pdf
5 実験設定
12
学習設定
モデル
T5ベースのBidirectional Encoder
マルチタスク学習
ストーリーの最後のQAに回答できるように、損失を加えたマルチタスクの設定でも学習する。
ℒ = 𝜆1ℒ𝑝𝑟𝑜𝑝 + 𝜆2ℒ𝑄𝐴 + 𝜆3ℒ𝑔𝑒𝑛
それぞれのタスクにおけるクロスエントロピー損失とする
ℒ𝑄𝐴: 質問から応答を生成するタスク
ℒ𝑔𝑒𝑛: 1 右端のブレークポイントの埋め込みからランダムに選んだイベントを生成するタスク
ℒ𝑔𝑒𝑛: 2ブレークポイントの埋め込みからランダムな抽象化したイベントを生成するタスク
微調整されたT5モデルやBARTモデルでの結果などと比較
5 実験設定
13
評価指標
命題推論
• 全体の命題における正解率
• 命題において矛盾する命題予測の一貫性を保てた
割合を示すグローバル一貫性指標𝜌
質問応答
モデルの生成出力に対するExact Match精度
6 結果
14
CLUTRRで提案手法は命題推論の性能やサンプル効率、一貫性に優れる
命題推論
微調整されたBILSTMモデル、T5モデルを上回る性能
質問応答
i.i.dの設定では微調整されたT5やBARTを上回る、
generalizationの設定では匹敵する性能を記録
サンプル効率
全体の60%の学習データのみで、
全データで学習したベースラインと同等の性能を達成
一貫性
i.i.d設定において制約違反𝜌がおよそ6%減少
(でも30%以上違反している。。)
6 結果
15
bAbIでも命題推論の性能やサンプル効率に優れる
命題推論
微調整されたBILSTMモデルは大きく上回り、
T5モデルに匹敵する性能
質問応答
i.i.dの設定では微調整されたT5やBARTにやや劣るも、
hardQAの設定では上回る性能を記録
サンプル効率
学習時間の効率が大幅に向上し、
学習時間を54%削減した
感想
16
モチベーションが面白いと思った
Chain of thoughts 的な段階的な推論を任意のドメインに展開できそうな面白さはあるが
そもそも人間がアノテーションして教える必要があるのかという気持ち
プログラミングとは違って、モデルの中間地点での信念状態を追跡できても、
それが必ずしも最終的なQAなどの出力と因果関係があるとは言い切れない
まとめ
17
• 自然言語処理において、モデルが内部でどのような信念状態を
持っているかの解釈は依然として困難であり、
特に物語理解のタスクにおいて、言語モデルがどのように世界の変化を
追跡しているのか不明な点がある。
• 本論文ではストーリーの中間地点における信念状態を学習、追跡する
新しい表現学習フレームワークであるブレイクポイントモデリングを提案。
• 既存の表現学習手法と比較して、信念状態の予測精度や処理効率、
予測の一貫性で優れることを示した。
• また、対応する質問応答モデルに組み込んだ場合でも性能が劣化しないため、
よりデバッグしやすいシステムへの発展可能性を示した。
DEEP LEARNING JP
[DL Papers]
“Breakpoint Transformers for Modeling and Tracking
Intermediate Beliefs” (EMNLP 2022)
Istuki Okimura, Matsuo Lab M1
http://deeplearning.jp/

Weitere ähnliche Inhalte

Mehr von Deep Learning JP

Mehr von Deep Learning JP (20)

【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
 
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
 
【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル
 
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
 
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
 
【DL輪読会】大量API・ツールの扱いに特化したLLM
【DL輪読会】大量API・ツールの扱いに特化したLLM【DL輪読会】大量API・ツールの扱いに特化したLLM
【DL輪読会】大量API・ツールの扱いに特化したLLM
 
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
 
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
 

Kürzlich hochgeladen

Kürzlich hochgeladen (11)

論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 

【DL輪読会】Breakpoint Transformers for Modeling and Tracking Intermediate Beliefs (EMNLP 2022)