SlideShare ist ein Scribd-Unternehmen logo
1 von 19
A simple neural network module for
relational reasoning
DL輪読会
06/16/2017
松尾研究室 D1 保住 純
1
書誌情報
・ 論 文 名 : A simple neural network module for relational
reasoning
・著者: Adam Santoro∗ , David Raposo∗ , David G.T. Barrett,
Mateusz Malinowski, Razvan Pascanu, Peter Battaglia and
Timothy Lillicrap (DeepMind)
・公開日: 5 Jun 2017 (on arXiv)
・概要
関係推論(Relational Reasoning)タスクの精度を大幅に向上さ
せるRelational Networkという枠組みを提案
※論文内の図表は、特別に記述のない限り、すべて元論文より引用
2
Relational Questionとは
・Non-relational Questionでは、特定のオブジェクトの属性(Attributes)に関
する推論を行えばよい
・Relational Questionでは、各オブジェクト間の関係(Relations)の明示的な
推論(Relational Reasoning)が必要になる
3
背景
・エンティティとその特性の関係について推論することは、人間の知
的活動の中心である
- Ex.ミステリー小説の犯人推理 (それぞれの証拠を広い意味で考えな
がら、説得力のあるストーリーを構築する)
・人工知能の記号論的アプローチは、本質的に関係的(Relational)
- だが、シンボルグラウンディング問題を抱えている
・統計的学習に基づく他のアプローチは生データから表現を構築し、
多様かつノイズを含む環境下で一般化する
- 深層学習などこれらのアプローチの多くは、下層構造がスパースで複
雑な関係によって特徴づけられるデータ不足問題に苦労するケースが多い
- CNNやMLPといった強力なNNでも単純な関係推論は非常に困難
4
目的
・関係推論に焦点を当てたRelational Networkを提案する
- シンプルなプラグアンドプレイ方式(自動的に協調する)
- 柔軟的な関係推論のみに焦点を当てている
【成果】
・最近苦戦を強いられている関係推論タスクCLEVRに適用
→ 人間を超える精度を達成
・異なるタスクドメイン(文章、物理システムなど)でも成功
→ 関係推論への一般的な有用性があると言える
5
Relational Networkとは
・設計哲学: 構造を制約して、関係推論の核となる特徴を捉える
O: オブジェクトの集合{o1, o2, o3, …, on }、 f,g: 関数
・gを関係(relation)とする(2オブジェクトの関係を推論する)
・本研究では、fとgはMLP(多層パーセプトロン)としている
6
Relational Networkの特長
・関係推論を学習する(Learn to infer relations)
- すべてのオブジェクト間の関係を学習
・データ効率が良い(Data efficient)
- 各関係を単一の関数gで計算 → 汎化が促進される
- 学習する関係はn^2 → (MLPで)一度に学習させる
・一連のオブジェクトに作用する(Operate on a set of Objects)
- オブジェクトの順序に対して不変
→ アウトプットはオブジェクト集合内の関係の一般的な表現を含む
7
今回取り組むタスク
1. CLEVR: 関係推論向けビジュアルQAデータセット
- 「画像」と「(行列による)状態記述」の2パターンで実験
2. Sort-of-CLEVR: 筆者らが作成したデータセット (10000枚*20問)
- CLEVRよりも画像と文書(単語)を単純化
- 1つの画像からRelationalとNon-Relationalの質問をそれぞれ10問用意
8
(既に提示済)
今回取り組むタスク
3. bAbI: テキストベースのQAデータセット(20問)
- Ex. “Sandra picked up the football”, “Sandra went to the office”
→ “Where is the football?”
4. Dynamic physical systems: テーブル上を動くボール(画像×時刻)
- Mujoco物理エンジンで作成 → ぶつかると物体のように跳ね返る
- いくつかのボール対は見えないバネでつながっている
- 各ボールの連続時間における座標から、オブジェクト間のバネ接続の有無」と
「連続フレームでの座標」を推論する
9
認識させる画像 (裏の)バネ接続関係
RNを用いた関係推論モデルの例
・RNにはCNNやLSTMなどをオブジェクトとして埋め込める柔軟性がある
- 入力はオブジェクトが求められるが、そのセマンティクスの指定はない
10
提案手法のCLEVRタスク向けの実装
本論文で提案しているRN
CLEVR用の実装
タスク(CLEVR)
モデルの構成要素(1/2)
・ピクセル(画像)の取扱い - CNN
- 128×128で画像を取り込み、4つの畳み込みレイヤーを介して、d×dのk個の特徴
マップに畳み込む (kは最後の畳み込みレイヤーのカーネル数)
- d×dのk次元の各セルに、その相対的な空間的位置を示す任意の座標でタグ付けし
たものを、RNのオブジェクトとしてとして扱う(前ページ図参照)
- このオブジェクトには背景、特定の物理オブジェクト、テクスチャ、物理的オブ
ジェクトの結合などを含むことができるので、学習プロセスに大きな柔軟性を与える
・状態の記述の取扱い (状態記述によるCLEVRなど)
- 状態を記述した行列をそのままオブジェクトとしてRNに与えることができる
11
モデルの構成要素(2/2)
・質問文の埋め込みによる条件付きRN - LSTM
- 質問内容に応じて処理を変えられるようgを変更する(Ex.球について質問されて
いるとき、立方体間の関係性は無意味)
- aのqにはLSTMの最終状態を採用
- 質問内の各単語に整数を割り当ててルックアップテーブルを作成
・自然言語文の取扱い (bAbIの場合など)
- 対象の質問の直前のサポートセットとして最大20センテンスを指定し、これらの
センテンスにサポートセット内の相対的な位置を示すラベルでタグ付けし、各センテン
スをLSTM(各センテンスに同じLSTMを独立に作用させる)で単語ごとに処理する
→ 全ての質問文を参照しないことで、事前知識を最小限に抑える
- LSTMの最終状態をRNへの入力オブジェクトとみなす
12
変更後のRN
(CLEVRでの)モデル設定の詳細
13
・ピクセル: それぞれ24のカーネルを持つ4つの畳み込み層、ReLU、BatchNorm
・質問処理: 128ユニットのLSTMと、32ユニットの単語ルックアップ埋込み
・g: 各層256ユニットの4層MLP、ReLU
・f: 256、256(50%Dropout)、29ユニットの3層MLP、ReLU
-最終層は回答語彙数のユニットを持つソフトマックスで、学習率2.5e-4のクロス
エントロピー損失関数で最適化
・学習: バッチサイズ64のミニバッチ、10台で分散処理
従来のCLEVRタスク用のアーキテクチャと比べてシンプルな構造
※その他のタスクにおけるモデル詳細は、本論文のAppendixを参照のこと
実験結果: CLEVR(画像)
・従来手法を27%更新し、人間の成績を超えた
14
SA: Stacked Attention(Zichao Yang, Xiaodong He, Jianfeng Gao, Li Deng, and Alex Smola.
Stacked attention networks for image question answering. In CVPR, 2016.)
実験結果: CLEVR(画像)
CountやCompareといった、関係推論が求められるタスクで大きく上回る
15
参考: RNが間違えたCLEVRの質問例
・オブジェクトが詰まっている場合、高精度な画像認識が求められる問題
を間違える傾向がある
・人間でも注意しないと普通に間違えるレベル
16
実験結果: その他のタスク
・CLEVR (行列による状態記述): 96.4%
・Sort-of-CLEVR: 94%以上
- RNを用いない場合はRelational Questionでの正答率が大きく下がる(63%)
- 特に“closest-to”や“furthest-from”が苦手(52.3%)
・bAbI: 18/20
・Dynamic physical systems: 93% (各ボールの接続関係の推論)
17
考察と結論
・RNの導入により、関係推論タスクのパフォーマンスが大幅に向上した
・RNが推論することで、CNNが(局所構造空間の)処理に集中できた?
- ResNetなどは処理が得意でも推論は苦手かもしれない
・RNが上流の処理を誘導したことで、有用な表現を獲得できた?
- 非構造化された入出力でも、RNは構造化推論ができそう
・事前知識を与えれば、計算効率はさらに向上できるかもしれない
・今後の課題として、様々なドメインのタスクに適用したい
・"Relation Networks are a simple and powerful approach for learning to
perform rich, structured reasoning in complex, real-world domains."
18
おまけ: DeepMindと関係推論
・現在DeepMindは関係推論に注目しているらしく、この論文の公開日と同
日に、関係推論の論文をもう1本公開した
- Nicholas Watters, Andrea Tacchetti, Theophane Weber, Razvan Pascanu, Peter
Battaglia and Daniel Zoran. Visual Interaction Networks. In arXiv 2017.
・"A key challenge in developing artificial intelligence systems with the
flexibility and efficiency of human cognition is giving them a similar ability -
to reason about entities and their relations from unstructured data. "
19
https://deepmind.com/blog/neural-approach-relational-reasoning/

Weitere ähnliche Inhalte

Was ist angesagt?

強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
 

Was ist angesagt? (20)

多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
 
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
 
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
 
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
 
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
 
DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models
 

Ähnlich wie [Dl輪読会]A simple neural network module for relational reasoning (6)

A simple neural network mnodule for relation reasoning
A simple neural network mnodule for relation reasoningA simple neural network mnodule for relation reasoning
A simple neural network mnodule for relation reasoning
 
Linguistic Knowledge as Memory for Recurrent Neural Networks_論文紹介
Linguistic Knowledge as Memory for Recurrent Neural Networks_論文紹介Linguistic Knowledge as Memory for Recurrent Neural Networks_論文紹介
Linguistic Knowledge as Memory for Recurrent Neural Networks_論文紹介
 
Creating and Using Links between Data Objects
Creating and Using Links between Data ObjectsCreating and Using Links between Data Objects
Creating and Using Links between Data Objects
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
 
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
 
presentation for padoc
presentation for padocpresentation for padoc
presentation for padoc
 

Mehr von Deep Learning JP

Mehr von Deep Learning JP (20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 

Kürzlich hochgeladen

Kürzlich hochgeladen (10)

論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 

[Dl輪読会]A simple neural network module for relational reasoning