SlideShare ist ein Scribd-Unternehmen logo
1 von 24
Downloaden Sie, um offline zu lesen
Query and Output: Generating Words by
Querying Distributed Word Representations
for Paraphrase Generation
Shuming Ma, Xu Sun1, Wei Li, Sujian Li, Wenjie Li, Xuancheng Ren
(NAACL 2018)
紹介者 B4 吉村綾馬
概要
● Word Embedding Attention Network (WEAN)という言い換え生成のモデルを提案
● 単語生成時にWord Embeddingを見ることで単語を意味をとらえたい
● 2つの言い換えタスクで実験
○ text simplification(テキスト平易化)
■ 2つのデータセットでそれぞれ BLEUが6.3, 5.5上がった
○ text summarization(テキスト要約)
■ ROUGE-2のF1スコアが5.7上がった
● 3つのデータセットでstate-of-the-artを上回った
イントロ
seq2seqモデルは言い換え生成で成功したが、2つの主な問題がある
1. 単語の意味ではなくて、単語自体とtraningデータでのパターンを記憶してる
○ 主な原因はdecoderで、意味情報をモデル化していない
○ 単語は互いに独立でスコアは無関係であるという仮定をしているため、ある単語とその同義語の単
語のスコアは異なる →単語間の関係を学習しているのではなく単語自体を学習してる
2. word generatorが非常に多くのパラメータを持つ(Vocab × hidden size)
○ パラメータが多いと学習速度が遅くなる
これらの問題を対処するため、WEANというモデルを提案
モデルの概要
Attention機構付きのencoder-decoderベースのモデル
encoder, decoderはLSTM
モデル Attention layer
ct: context vector
hi: hidden state of encoder
st: hidden state of decoder
g(st, hi): attentive score
モデル Query
qt: query
Wc: parameter
st: hidden state of decoder
ct: context vector
[st; ct]: concat
モデル key-value pair
wi: 候補単語 (Value)
ei: 対応するembedding(Key)
n: 候補単語の数
● 候補単語はtraningセットから取り
出した最頻出のN個
● keyとdecoderの入力の
embeddingは共有(おそらく)
● word embeddingsはpretrainせず
ゼロから学習
モデル queryとkeyのスコア関数
Wa, Wq, We: parameter matrix
v^T: parameter vecctor
テスト時はスコアが最大の wtを予測
単語とし、eiを次のタイムステップの
LSTMの入力に入れる
実験1 Text Simplification
Data sets
● Parallel WIkipedia Simplification Corpus (PWKP) (Zhu et al., 2010)
○ train 89,042 pair
○ dev 205 pair
○ test 100 pair
● English Wikipedia and Simple English Wikipedia (EW-SEW) (Hwang et al.2015)
○ train 280,000 pair
○ dev 2000 pair
○ test 359 pair
実験1 Text Simplification
Evaluation Metrics
● Automatic evaluation. BLEU(Paineni et al., 2002)
○ PWKP single reference
○ EW-SEW multi reference
● Human evaluation. (1 is very bad, 5 is very good)
○ Fluency(流暢性) 1 ~ 5
○ Adequacy(妥当性)1 ~ 5 
○ Simplicity(簡潔性) 1 ~ 5
実験1 Text Simplification
Settings
● layer 2
● hidden size 256
● optimizer Adam
● batch size 64
● dropout rate 0.4
● Clipping gradients 5以上
実験1 Text Simplification
Baselines
● Seq2seq
● NTS and NTS-w2v(Nisioi et al., 2017)
○ NTSはOpenNMT、NTS-w2vはword embeddingをpretrainしている
● DRESS and DRESS-LS(Zhang and Lapata, 2017)
○ DRESSは強化学習を使ったモデル、 DRESS-LSは語彙平易化のモデルを追加したモデル
● EncDecA(Zhang and Lapata, 2017)
○ アテンション付きのencoder-decoderモデル
実験1 Text Simplification
Baselines
● PRBMT-R(Wubben et al., 2012)
○ フレーズベースのSMT
● Hybrid(Narayan and Gradent, 2014)
○ deep semanticsとモノリンガルMTのハイブリッド
● SBMT-SARI(Xu et al., 2016)
○ 構文ベースのモデル
実験1 Text Simplification
Result 自動評価(BLEU)
実験1 Text Simplification
Result 人手評価
referenceより良い結果が出てる
PWKPでは全ての項目でWEANが一番良い
EW-SEWでは平均してWEANが一番良い
実験2 Large Scale Text Summarization
Dataset
Large Scale Chinese Social Media Short Text Summarization Dataset(LCSTS)
2,400,000文ペア 
● Part1 2,400,591ペア train
● Part2 8,685ぺア validation
● Part3 725ペア test
Part2とPart3は1~5で自動評価されていて、スコア3以上のものを選択
実験2 Large Scale Text Summarization
Evaluation Matrics
ROUGE-1, ROUGE-2, ROUGE-L
Settings
● vocab size 4000
● embedding size 512
● hidden size 512
● layers of encoder 2
● layers of decoder 1
● batch size 64
● beam size 5
実験2 Large Scale Text Summarization
Baselines
● RNN and RNN-cont(Hu et al. 2015)
○ GRUベースのseq2seqモデル
● RNN-dist(Chen et al., 2016)
○ Attensionベースのseq2seqモデルにdistraction機構を追加したモデル
● CopyNet(Gu et al., 2016)
○ Copy機構を取り入れたモデル 入力テキストのコピーを生成するときに使える
● SRB(Ma et al., 2017)
○ 入力と出力の意味の妥当性を改善した seq2seqモデル
● DRGD(Li et al., 2017)(state-of-the-art)
○ variational autoencoderを組み合わせた
● Seq2seq 
実験2 Large Scale Text Summarization
Results
提案手法WEANが全てのベースライン
に対して良い結果
state-of-the-artのDRGDよりも良い結果
分析 パラメータの数(出力層)
● seq2seq
○ PWKP, EWSEW 5000(vocab) × 256(hidden size) = 12,800,000
○ LCSTS 4000(vocab) × 512(hidden size) = 2,048,000
● WEAN 最大でもvocab sizeに関係なく2つのmatrixと1つのvectorしか持たない
○ PWKP, EWSEW 256 × 256 × 2 + 256 = 131,328
○ LCSTS 512 × 512 × 2 + 512 = 524,800
分析 学習速度
2, 3エポックで最大スコアに到達
seq2seqと比べて学習速度がとても早い
分析 Case Study1 (Text simplification)
NTS, NTS-w2v, PBMT-Rは重要な単語を含んでいない
SBMT-SARIは流暢だが、意味がSourceと異なる
WEANは流暢で簡潔でReferenceと同じである
分析 Case Study2(Text simplification)
まとめ
● WEANというword embeddingをクエリとして単語を生成するモデルを提案
● 単語予測にword embeddingを使うことで、単語の意味をとらえることができる
● テキスト平易化、テキスト要約で実験、3つのデータセットでSOTAを上回った
● seq2seqに比べてパラメータ数が減って学習速度が速くなった

Weitere ähnliche Inhalte

Ähnlich wie Query and output generating words by querying distributed word representations for paraphrase generation

Segmenting Sponteneous Japanese using MDL principle
Segmenting Sponteneous Japanese using MDL principleSegmenting Sponteneous Japanese using MDL principle
Segmenting Sponteneous Japanese using MDL principleYusuke Matsubara
 
Incorporating syntactic and semantic information in word embeddings using gra...
Incorporating syntactic and semantic information in word embeddings using gra...Incorporating syntactic and semantic information in word embeddings using gra...
Incorporating syntactic and semantic information in word embeddings using gra...Hiroki Iida
 
論文紹介 LexRank: Graph-based Lexical Centrality as Salience in Text Summarization
論文紹介 LexRank: Graph-based Lexical Centrality as Salience in Text Summarization論文紹介 LexRank: Graph-based Lexical Centrality as Salience in Text Summarization
論文紹介 LexRank: Graph-based Lexical Centrality as Salience in Text SummarizationKazunariHemmi
 
効果的なXPの導入を目的とした プラクティス間の相互作用の分析
効果的なXPの導入を目的とした プラクティス間の相互作用の分析効果的なXPの導入を目的とした プラクティス間の相互作用の分析
効果的なXPの導入を目的とした プラクティス間の相互作用の分析Makoto SAKAI
 
【2017.02】cvpaper.challenge2017
【2017.02】cvpaper.challenge2017【2017.02】cvpaper.challenge2017
【2017.02】cvpaper.challenge2017cvpaper. challenge
 
2020 acl learning_to_recover_from_multi-modality_errors_for_non-autoregressiv...
2020 acl learning_to_recover_from_multi-modality_errors_for_non-autoregressiv...2020 acl learning_to_recover_from_multi-modality_errors_for_non-autoregressiv...
2020 acl learning_to_recover_from_multi-modality_errors_for_non-autoregressiv...広樹 本間
 
Guiding neural machine translation with retrieved translation pieces
Guiding neural machine translation with retrieved translation piecesGuiding neural machine translation with retrieved translation pieces
Guiding neural machine translation with retrieved translation piecesSatoru Katsumata
 
最先端NLP勉強会2017_ACL17
最先端NLP勉強会2017_ACL17最先端NLP勉強会2017_ACL17
最先端NLP勉強会2017_ACL17Masayoshi Kondo
 
ニューラル機械翻訳の動向@IBIS2017
ニューラル機械翻訳の動向@IBIS2017ニューラル機械翻訳の動向@IBIS2017
ニューラル機械翻訳の動向@IBIS2017Toshiaki Nakazawa
 
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者cvpaper. challenge
 
Neural Models for Information Retrieval
Neural Models for Information RetrievalNeural Models for Information Retrieval
Neural Models for Information RetrievalKeisuke Umezawa
 
ACL 2015 読み会 @ 小町研 "Gated Recursive Neural Network for Chinese Word Segmentat...
ACL 2015 読み会 @ 小町研 "Gated Recursive Neural Network for Chinese Word Segmentat...ACL 2015 読み会 @ 小町研 "Gated Recursive Neural Network for Chinese Word Segmentat...
ACL 2015 読み会 @ 小町研 "Gated Recursive Neural Network for Chinese Word Segmentat...Yuki Tomo
 
2021 10-07 kdd2021読み会 uc phrase
2021 10-07 kdd2021読み会 uc phrase2021 10-07 kdd2021読み会 uc phrase
2021 10-07 kdd2021読み会 uc phraseTatsuya Shirakawa
 
Variational Template Machine for Data-to-Text Generation
Variational Template Machine for Data-to-Text GenerationVariational Template Machine for Data-to-Text Generation
Variational Template Machine for Data-to-Text Generationharmonylab
 
読解支援@2015 07-13
読解支援@2015 07-13読解支援@2015 07-13
読解支援@2015 07-13sekizawayuuki
 
All-but-the-Top: Simple and Effective Postprocessing for Word Representations
All-but-the-Top: Simple and Effective Postprocessing for Word RepresentationsAll-but-the-Top: Simple and Effective Postprocessing for Word Representations
All-but-the-Top: Simple and Effective Postprocessing for Word RepresentationsMakoto Takenaka
 
Nl237 presentation
Nl237 presentationNl237 presentation
Nl237 presentationRoy Ray
 
【書籍紹介】ノンプログラマのためのJavaScript
【書籍紹介】ノンプログラマのためのJavaScript【書籍紹介】ノンプログラマのためのJavaScript
【書籍紹介】ノンプログラマのためのJavaScript株式会社ランチェスター
 
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)Ohsawa Goodfellow
 

Ähnlich wie Query and output generating words by querying distributed word representations for paraphrase generation (20)

Segmenting Sponteneous Japanese using MDL principle
Segmenting Sponteneous Japanese using MDL principleSegmenting Sponteneous Japanese using MDL principle
Segmenting Sponteneous Japanese using MDL principle
 
Incorporating syntactic and semantic information in word embeddings using gra...
Incorporating syntactic and semantic information in word embeddings using gra...Incorporating syntactic and semantic information in word embeddings using gra...
Incorporating syntactic and semantic information in word embeddings using gra...
 
論文紹介 LexRank: Graph-based Lexical Centrality as Salience in Text Summarization
論文紹介 LexRank: Graph-based Lexical Centrality as Salience in Text Summarization論文紹介 LexRank: Graph-based Lexical Centrality as Salience in Text Summarization
論文紹介 LexRank: Graph-based Lexical Centrality as Salience in Text Summarization
 
効果的なXPの導入を目的とした プラクティス間の相互作用の分析
効果的なXPの導入を目的とした プラクティス間の相互作用の分析効果的なXPの導入を目的とした プラクティス間の相互作用の分析
効果的なXPの導入を目的とした プラクティス間の相互作用の分析
 
【2017.02】cvpaper.challenge2017
【2017.02】cvpaper.challenge2017【2017.02】cvpaper.challenge2017
【2017.02】cvpaper.challenge2017
 
2020 acl learning_to_recover_from_multi-modality_errors_for_non-autoregressiv...
2020 acl learning_to_recover_from_multi-modality_errors_for_non-autoregressiv...2020 acl learning_to_recover_from_multi-modality_errors_for_non-autoregressiv...
2020 acl learning_to_recover_from_multi-modality_errors_for_non-autoregressiv...
 
Guiding neural machine translation with retrieved translation pieces
Guiding neural machine translation with retrieved translation piecesGuiding neural machine translation with retrieved translation pieces
Guiding neural machine translation with retrieved translation pieces
 
最先端NLP勉強会2017_ACL17
最先端NLP勉強会2017_ACL17最先端NLP勉強会2017_ACL17
最先端NLP勉強会2017_ACL17
 
ニューラル機械翻訳の動向@IBIS2017
ニューラル機械翻訳の動向@IBIS2017ニューラル機械翻訳の動向@IBIS2017
ニューラル機械翻訳の動向@IBIS2017
 
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者
 
Neural Models for Information Retrieval
Neural Models for Information RetrievalNeural Models for Information Retrieval
Neural Models for Information Retrieval
 
ACL 2015 読み会 @ 小町研 "Gated Recursive Neural Network for Chinese Word Segmentat...
ACL 2015 読み会 @ 小町研 "Gated Recursive Neural Network for Chinese Word Segmentat...ACL 2015 読み会 @ 小町研 "Gated Recursive Neural Network for Chinese Word Segmentat...
ACL 2015 読み会 @ 小町研 "Gated Recursive Neural Network for Chinese Word Segmentat...
 
2021 10-07 kdd2021読み会 uc phrase
2021 10-07 kdd2021読み会 uc phrase2021 10-07 kdd2021読み会 uc phrase
2021 10-07 kdd2021読み会 uc phrase
 
Extract and edit
Extract and editExtract and edit
Extract and edit
 
Variational Template Machine for Data-to-Text Generation
Variational Template Machine for Data-to-Text GenerationVariational Template Machine for Data-to-Text Generation
Variational Template Machine for Data-to-Text Generation
 
読解支援@2015 07-13
読解支援@2015 07-13読解支援@2015 07-13
読解支援@2015 07-13
 
All-but-the-Top: Simple and Effective Postprocessing for Word Representations
All-but-the-Top: Simple and Effective Postprocessing for Word RepresentationsAll-but-the-Top: Simple and Effective Postprocessing for Word Representations
All-but-the-Top: Simple and Effective Postprocessing for Word Representations
 
Nl237 presentation
Nl237 presentationNl237 presentation
Nl237 presentation
 
【書籍紹介】ノンプログラマのためのJavaScript
【書籍紹介】ノンプログラマのためのJavaScript【書籍紹介】ノンプログラマのためのJavaScript
【書籍紹介】ノンプログラマのためのJavaScript
 
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
 

Mehr von ryoma yoshimura

Courteously yours inducing courteous behavior in customer care responses usi...
Courteously yours  inducing courteous behavior in customer care responses usi...Courteously yours  inducing courteous behavior in customer care responses usi...
Courteously yours inducing courteous behavior in customer care responses usi...ryoma yoshimura
 
Beyond bleu training neural machine translation with semantic similarity
Beyond bleu  training neural machine translation with semantic similarityBeyond bleu  training neural machine translation with semantic similarity
Beyond bleu training neural machine translation with semantic similarityryoma yoshimura
 
Reinforcement learning based text style transfer without parallel training co...
Reinforcement learning based text style transfer without parallel training co...Reinforcement learning based text style transfer without parallel training co...
Reinforcement learning based text style transfer without parallel training co...ryoma yoshimura
 
Reliability and learnability of human bandit feedback for sequence to-seque...
Reliability and learnability  of human bandit feedback  for sequence to-seque...Reliability and learnability  of human bandit feedback  for sequence to-seque...
Reliability and learnability of human bandit feedback for sequence to-seque...ryoma yoshimura
 
Learning to Ask Good Questions: Ranking Clarification Questions using Neura...
Learning to Ask Good Questions:  Ranking Clarification Questions  using Neura...Learning to Ask Good Questions:  Ranking Clarification Questions  using Neura...
Learning to Ask Good Questions: Ranking Clarification Questions using Neura...ryoma yoshimura
 
Multi reference training with pseudo-references for neural translation and te...
Multi reference training with pseudo-references for neural translation and te...Multi reference training with pseudo-references for neural translation and te...
Multi reference training with pseudo-references for neural translation and te...ryoma yoshimura
 
Style transfer through back transhlation
Style transfer through back transhlationStyle transfer through back transhlation
Style transfer through back transhlationryoma yoshimura
 

Mehr von ryoma yoshimura (7)

Courteously yours inducing courteous behavior in customer care responses usi...
Courteously yours  inducing courteous behavior in customer care responses usi...Courteously yours  inducing courteous behavior in customer care responses usi...
Courteously yours inducing courteous behavior in customer care responses usi...
 
Beyond bleu training neural machine translation with semantic similarity
Beyond bleu  training neural machine translation with semantic similarityBeyond bleu  training neural machine translation with semantic similarity
Beyond bleu training neural machine translation with semantic similarity
 
Reinforcement learning based text style transfer without parallel training co...
Reinforcement learning based text style transfer without parallel training co...Reinforcement learning based text style transfer without parallel training co...
Reinforcement learning based text style transfer without parallel training co...
 
Reliability and learnability of human bandit feedback for sequence to-seque...
Reliability and learnability  of human bandit feedback  for sequence to-seque...Reliability and learnability  of human bandit feedback  for sequence to-seque...
Reliability and learnability of human bandit feedback for sequence to-seque...
 
Learning to Ask Good Questions: Ranking Clarification Questions using Neura...
Learning to Ask Good Questions:  Ranking Clarification Questions  using Neura...Learning to Ask Good Questions:  Ranking Clarification Questions  using Neura...
Learning to Ask Good Questions: Ranking Clarification Questions using Neura...
 
Multi reference training with pseudo-references for neural translation and te...
Multi reference training with pseudo-references for neural translation and te...Multi reference training with pseudo-references for neural translation and te...
Multi reference training with pseudo-references for neural translation and te...
 
Style transfer through back transhlation
Style transfer through back transhlationStyle transfer through back transhlation
Style transfer through back transhlation
 

Kürzlich hochgeladen

論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsWSO2
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Hiroshi Tomioka
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptxsn679259
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 

Kürzlich hochgeladen (11)

論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 

Query and output generating words by querying distributed word representations for paraphrase generation