SlideShare ist ein Scribd-Unternehmen logo
1 von 22
http://deeplearning.jp/
1
Object-Centric Learning with Slot Attention
Present Square Co.,Ltd. 小林 範久
DEEP LEARNING JP
[DL Papers]
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
書誌情報
2
Object-Centric Learning with Slot Attention
(https://arxiv.org/abs/2006.15055)
タイトル:
著者: Francesco Locatello, Dirk Weissenborn, Thomas Unterthiner, Aravindh Mahendran,
Georg Heigold, Jakob Uszkoreit, Alexey Dosovitskiy, and Thomas Kipf
(Google Research, Brain Team、Dept. of Computer Science, ETH Zurich、Max-
Planck Institute for Intelligent Systems)
• 「物体中心表現」をもつ潜在表現を獲得し、物体認識のために利用する手法。
• 低レベルの知覚入力から物体中心の抽象表現を学習する「Slot-Attention」を提案。
• 教師なしの物体検出と教師ありの物体ラベル予測では従来の手法と比べ、メモリ消費と計算の
面でより効率的で高精度。
概要:
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
アジェンダ
3
1. 導入
2. 関連研究
3. 手法
4. 実験結果
5. まとめ
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
1. 導入
4
物体中心表現は、「視覚的推論」、「構造化されたモデリング」、「マルチエージェントモデリング」、「相互作用する物理シ
ステムのシミュレーション」など、様々な応用分野で機械学習のサンプル効率と一般化を向上させる可能性がある。
物体中心表現を学習させることで、より正確でかつ汎用性の高い物体認知モデルを構築したい。
• 複雑なシーンの物体中心の表現を学習することは、低レベルの知覚特徴から効率的な抽象推論を可能にするための
有望なステップである。
• しかし、ほとんどの深層学習アプローチは、シーンの構成特性を捉えていない分散表現を学習している。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
1. 導入
5
① 知覚的表現(CNNの出力など)と集合として構造化された表現との間のインターフェイスとして、シンプルなアーキテクチャ・コンポーネ
ントであるSlot-Attentionモジュールを導入。
② 教師なし物体検出にSlot-Attentionベースのアーキテクチャを適用し、よりメモリ効率が高く、訓練時間が大幅に短縮したうえで、関
連する最先端のアプローチと同等以上の性能。
③ オブジェクトのセグメンテーションを教師なしで学習したうえで、教師付き物体プロパティ予測にSlot-Attentionモジュールが使用できる
ことを実証。
本論文の貢献
※本論文におけるプロパティ予測とは、
オブジェクトの(位置、形状、素材、色、大きさ)を予測することを意味する。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
2. 関連研究
6
• シーンが複数の実体で構成されているという仮定から、画像を「分離され
た表現で解釈可能なオブジェクト」にセグメンテーションが可能であることを
示した論文。
• 潜在物体表現を利用することで、教師なし学習でオクルージョンを塗り潰
すように学習し、より多くのオブジェクトを持つシーンや、新しい特徴の組み
合わせを持つ見たことがないオブジェクトに外挿していく。
• 反復的変分推論を使用して、画像内のオブジェクトを記述する潜在変
数のセットを推論する。
• 物体ごとの相互関係はモデリングできない。
IODINE(Multi-Object Representation Learning with Iterative Variational Inference)
①Object discovery
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
2. 関連研究
7
MONet(Unsupervised Scene Decomposition and Representation)
• 画像の領域の周りのAttentionマスクと再構成を提供するために教
師なしで、再帰的Attentionネットワークと一緒にVAEをEnd-to-
Endで学習。
• マスクの生成→VAEでマスク領域を再構成 という処理を再帰的に
繰り返し行う。
• マスクの生成の際にCNNの計算をマスク数分だけ行うため、計算効
率が悪い 。
• 複数のエンコード・デコードステップが必要(GENESISも同様。)
①Object discovery
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
2. 関連研究
8
DSPN(Deep Set Prediction Network)
• 集合の符号化、生成、集合から集合へのマッピングの探索。
• ほとんどの先行研究は、要素ごとに出力セットの順序表現を学習している
ため、テスト時に異なるセットのカーディナリティ(要素の数)に一般化でき
なかった。
• DSPNは、各例に対して内部勾配降下ループを実行することで
permutation symmetry(順列対称性)を尊重するが、収束のため
に多くのステップを必要とし、いくつかの損失ハイパーパラメータを慎重に調
整する必要がある。
出典:https://postersession.ai/poster/deep-set-prediction-networks/
②Neural networks for sets
※DETR と TSPN は、条件付き集合生成に Transformer を使用することを提案している。
DETR は出力集合のpermutation symmetryを考慮していない。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
2. 関連研究
9
<参考>集合予測における不連続性と責任問題
出典:https://postersession.ai/poster/deep-set-prediction-networks/
②Neural networks for sets
• ニューラルネットワークは不連続なジャンプを考慮せず関数のみをモデル化するため、このジャンプはニューラルネットワークの学習にとって
課題となる。
• 多角形の頂点の数(設定された要素の数)を増やすと、すべての出力が一度に不連続に変化しなければならない状況の頻度が増
え、モデル化が非常に難しくなります。このように出力するべきものが定まっているのにもかかわらず、入力の順序が定まっていないと多くの
問題が発生する。
• 正方形(図の左上)を90度回転させると(図の右上)、集合内の
要素を単純に並べ替えたものになる。これらは同じ集合なので、同じ潜
在表現にエンコードし、同じリスト表現にデコードする。つまり、各出力は
回転後も同じ位置のポイントを生成する責任がある。
• しかし、これは、90度回転中のある時点(図の下のパス)で、出力の
割り当て方法に不連続なジャンプ(図の赤い矢印)が存在する必要
があることも意味する。
この問題に対処するためには、入力の順序と出力の順序を独立な関係なものにするため、入力をpermutation invarianceにし、
②集合を入力した時に、各要素に1対1対応する集合を出力する permutation equivarianceなモデルにすることが必要。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 手法
10
モデル構造
① CNNによって画像特徴量を抽出する(ImageFeatures)
② Positional embeddingで位置情報をImageFeaturesに付与する
(ImageFeatures₊P)
③ Slot-AttentionでInput(k, v)とSlot(q)からAttentionスコアを取得する。
④ T回反復してSlotを学習させ、Inputのなかの任意のオブジェクトと相同関係を構
築する。
※③と④がSlot-Attention module。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 手法
11
3.1 Slot Attention Module
• Slot-AttentionモジュールはCNNから抽出されたN個の入力特徴ベクトルのセット=Inputを、K個の出力ベクトルのセット=Slotを
用いて物体中心表現を共通次元Dにマッピングする。
• 共有された学習可能なパラメータµ∈𝑅 𝐷 𝑠𝑙𝑜𝑡𝑠を持つガウス分布から初期値をサンプリングすることでスロットを初期化。
• InputをKey、SlotをQueryとしてAttentionスコアをとり、その加重平均を取ることでマッピング。
K=4のSlot
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 手法
12
3.1 Slot Attention Module
1slotで1オブジェクトを表現するように
特徴量を変化させていく。
• 各反復では、SlotはソフトマックスベースのAttentionメカニズムを介して入
力の一部を説明するために競い合い、特徴量を変化させる。
• 具体的にはInputとSlotによって得ることができたAttentionスコアを使って
再帰的にSlotの表現を更新する。
• 入力値を割り当てられたSlotに集約するために、加重平均を使用。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 手法
13
3.1 Slot Attention Module
• 更にGRUの出力をReLU活性化と残差接続を持
つ多層パーセプトロン(MLP)で変換することで、性
能を向上させる。
• モジュールの入力とSlotの特徴の両方に
LayerNormを適用している。これは学習の収束
を早めるために利用されている。
Slot Attention の特性
(1)入力に関するpermutation invariance(入力の順番を変えても出力が同じになる)。
(2)Slotの順序に関するpermutation equivariance(集合を入力して各要素に1対1対応する集合を出力する)。
⇒これらの特性により、Slotは共通の表現形式を学習し、各Slotが入力内の任意の物体にバインドできる。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 手法
14
• Slot-Attentionは入力表現をベクトルの集合に変換するため、
教師なしオブジェクト発見のためのオートエンコーダーの一部として
使用することができる。
• 各Slotでは画像の領域または一部のみをエンコードしており、それ
らをまとめてデコードすることで、元の画像を再構築する形で画像
空間に戻すことができる。
3.2 Object Discovery
Encoder
Decoder
• エンコーダは(i)Positional embedding されたCNNと、(ii)Slot-Attentionモジュールの、2つのコンポーネントで構成。
• Slot-Attentionの出力はSlotの集合であり、シーンのグループ化(オブジェクトなど)を表している。
• 各Slotは、2Dグリッドにブロードキャストされ、位置の埋め込みが追加される形で個別にデコードされる。
• 各グリッドはCNNを用いてデコードされ、W × H × 4のサイズの出力を生成する。
• 出力チャネルは、RGBカラーチャネルとアルファマスク(正規化されていない)をエンコード。
• Softmaxを用いてSlot間のアルファマスクを正規化し、それらをmixture weightとして使用して1つのRGB画像に結合。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 手法
15
• 入力画像と予測対象の集合が与えられ、それぞれがシーン内の
物体を記述している。
• 課題は、ターゲットの順序が任意であるため、K個の要素のセッ
トに対してK!個の等価表現が存在すること。(これはDETR
などが抱えていた問題と同様。)
• そのため、スロットは訓練中にその内容を入れ替えることで、入
力順序と出力順序の独立性を確立する。
3.3 Set Prediction
Encoder
Classifier
• Object Discoveryと同じアーキテクチャを使用。
• 各Slotに対して、Slot間で共有されるパラメーターを使用してMLPを適用する。
• 予測とラベルの順序は任意であるため、DETR同様ハンガリアンアルゴリズムを使用してそれらを照合している。
⇒これによりSlot Attentionは、入力シーンの分散表現を、各オブジェクト別に分類できる集合表現に変えるために使用できる。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. 実験
16
※ディープセット予測ネットワーク(DSPN)は、Slot-Attention以外では順列対称性を尊重する唯一の集合予測モデル
※単純なMLPベースのベースライン(Slot MLP)は、Slot AttentionをMLPに置き換え、
CNNの特徴マップ(サイズを変更して平坦化したもの)からSlot表現にマップするモデル。
比較モデルとデータセット
2つのオブジェクト中心のタスク (教師なしと教師あり)でSlot Attentionモジュールを評価。
タスク 比較モデル テストデータ データセット
(教師なし)
物体検出
(教師あり)
集合予測
IODINE/MONet
SlotMLP
IODINE/MONet
SlotMLP
未見シーンで構成された
ホールドアウトテストデータ
CLEVR(マスク付き)
Multi-dSprites
Tetrominoes
CLEVR(マスク付き)
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. 実験
17
定量評価
4.1 Object Discovery
• 表から、一般的に2つの最新のベースラインと比較し
て良好な結果を示している。IODINEと比較して、
モデルはメモリ消費量と実行時間の両方の点で効
率的。
教師なしシーン分解の先行アプローチと比較して、オブジェクトのセグメンテーションの質、学習速度、メモリ効率の両面で良い。
またテスト時には、Slot Attentionをデコーダなしで、未経験シーンからオブジェクト中心の表現を得ることができる。
• グラフでは、反復回数を増した場合の方が精度が上がることが示されている。
• また訓練時からKの値を増やして、よりシーン内に多くのオブジェクトがある画像につい
てテストされているが、それでもセグメンテーション性能は低下しないことが確認された。
(後のSet Predictionは、Kの値を増やすと性能が低下。)
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. 実験
18
定性評価
4.1 Object Discovery
• セグメンテーションの経過を表した図。
• オブジェクトよりもSlotの数が多い場合、
モデルはSlotを空に保つ(背景のみを
キャプチャする)ように学習。
• 単一のSlotだけに背景をキャプチャする
のではなく、すべてのSlotに一様な背景
を広げていることがわかる。これは、物体
の分離や再構成の品質を損なうことのな
いAttentionメカニズムの成果物である
可能性が高い。
• 1回目の反復ではまだ複数のオブジェクトの一部を1つのSlotにマッピングしているが、2回目の反復ですでに個々のオブジェクトの抽出に
特化することを学習している。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. 実験
19
4.2 Set Prediction
(左図)全体的に、DSPNのベースラインと同等以上の性能を示している。
(中央図)反復回数を増やすと、一般的に性能が向上する。
(右図)Slot-Attentionは、Slot数を変更することで、テスト時により多くのオブジェクトを扱うことができる。
CLEVR6(K=6)でモデルを学習し、6以上のオブジェクト数でテストを行うと、APが緩やかに低下した。
この集合予測タスクを解くためには、各Slotが異なるオブジェクトに注目する必要があるという考察がなされている。
定量評価
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. 実験
20
4.2 Set Prediction
• 2つのCLEVR画像について、各スロットのAttentionマップを可視化。
• セグメンテーションマスクを使用せずに、対象物のプロパティを予測するためだけに訓練されているにもかかわらず、自然に対象物をセグメ
ント化していることもわかる。
定性評価
セット構造化されたプロパティ予測タスクのためにオブジェクトの表現を学習し、実装と調整が非常に容易であると同時に、先行する最先端
のアプローチに匹敵する結果を達成したと言える。
Attentionマスクはシーンを自然にセグメンテーションするため、モデルの予測結果をデバッグや解釈する際に有用。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
5. まとめ
21
まとめ
• 「物体中心表現」をもつ潜在表現を獲得し、物体認識のために利用する手法。
• 低レベルの知覚入力から物体中心の抽象表現を学習する「Slot-Attention」を提案。
• 教師なしの物体検出と教師ありの物体ラベル予測では従来の手法と比べ、メモリ消費と計算の面でより効率的で、
高い精度。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
Appendix
参考文献
22
• [16] Klaus Greff, Raphaël Lopez Kaufman, Rishabh Kabra, Nick Watters, Christopher Burgess, Daniel Zoran,
Loic Matthey, Matthew Botvinick, and Alexander Lerchner. Multi-object representation learning with iterative
variational inference. In International Conference on Machine Learning, pages 2424–2433, 2019.
• [27] Martin Engelcke, Adam R Kosiorek, Oiwi Parker Jones, and Ingmar Posner. GENESIS: Generative scene
inference and sampling with object-centric latent representations. arXiv preprint arXiv:1907.13052, 2019.
• [31] Yan Zhang, Jonathon Hare, and Adam Prugel-Bennett. Deep set prediction networks. In Advances in
Neural Information Processing Systems, pages 3207–3217, 2019.
• [59] Nicolas Carion, Francisco Massa, Gabriel Synnaeve, Nicolas Usunier, Alexander Kirillov, and Sergey
Zagoruyko. End-to-end object detection with transformers. arXiv preprint arXiv:2005.12872, 2020.
• [61] Adam R Kosiorek, Hyunjik Kim, and Danilo J Rezende. Conditional set generation with transformers.
ICML 2020 Object-Oriented Learning Workshop, https://github.com/oolworkshop/oolworkshop.
github.io/blob/master/pdf/OOL_31.pdf, 2020.

Weitere ähnliche Inhalte

Was ist angesagt?

Was ist angesagt? (20)

ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
 
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
「世界モデル」と関連研究について
「世界モデル」と関連研究について「世界モデル」と関連研究について
「世界モデル」と関連研究について
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
 
【宝くじ仮説】The Lottery Ticket Hypothesis: Finding Small, Trainable Neural Networks
【宝くじ仮説】The Lottery Ticket Hypothesis: Finding Small, Trainable Neural Networks【宝くじ仮説】The Lottery Ticket Hypothesis: Finding Small, Trainable Neural Networks
【宝くじ仮説】The Lottery Ticket Hypothesis: Finding Small, Trainable Neural Networks
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
 
[DL輪読会]Transframer: Arbitrary Frame Prediction with Generative Models
[DL輪読会]Transframer: Arbitrary Frame Prediction with Generative Models[DL輪読会]Transframer: Arbitrary Frame Prediction with Generative Models
[DL輪読会]Transframer: Arbitrary Frame Prediction with Generative Models
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs 【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
 
[DL輪読会]YOLOv4: Optimal Speed and Accuracy of Object Detection
[DL輪読会]YOLOv4: Optimal Speed and Accuracy of Object Detection[DL輪読会]YOLOv4: Optimal Speed and Accuracy of Object Detection
[DL輪読会]YOLOv4: Optimal Speed and Accuracy of Object Detection
 
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
 
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"
 
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
 

Mehr von Deep Learning JP

Mehr von Deep Learning JP (20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 

Kürzlich hochgeladen

Kürzlich hochgeladen (11)

Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 

[DL輪読会]Object-Centric Learning with Slot Attention

  • 1. http://deeplearning.jp/ 1 Object-Centric Learning with Slot Attention Present Square Co.,Ltd. 小林 範久 DEEP LEARNING JP [DL Papers]
  • 2. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 書誌情報 2 Object-Centric Learning with Slot Attention (https://arxiv.org/abs/2006.15055) タイトル: 著者: Francesco Locatello, Dirk Weissenborn, Thomas Unterthiner, Aravindh Mahendran, Georg Heigold, Jakob Uszkoreit, Alexey Dosovitskiy, and Thomas Kipf (Google Research, Brain Team、Dept. of Computer Science, ETH Zurich、Max- Planck Institute for Intelligent Systems) • 「物体中心表現」をもつ潜在表現を獲得し、物体認識のために利用する手法。 • 低レベルの知覚入力から物体中心の抽象表現を学習する「Slot-Attention」を提案。 • 教師なしの物体検出と教師ありの物体ラベル予測では従来の手法と比べ、メモリ消費と計算の 面でより効率的で高精度。 概要:
  • 3. Copyright (C) Present Square Co., Ltd. All Rights Reserved. アジェンダ 3 1. 導入 2. 関連研究 3. 手法 4. 実験結果 5. まとめ
  • 4. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 1. 導入 4 物体中心表現は、「視覚的推論」、「構造化されたモデリング」、「マルチエージェントモデリング」、「相互作用する物理シ ステムのシミュレーション」など、様々な応用分野で機械学習のサンプル効率と一般化を向上させる可能性がある。 物体中心表現を学習させることで、より正確でかつ汎用性の高い物体認知モデルを構築したい。 • 複雑なシーンの物体中心の表現を学習することは、低レベルの知覚特徴から効率的な抽象推論を可能にするための 有望なステップである。 • しかし、ほとんどの深層学習アプローチは、シーンの構成特性を捉えていない分散表現を学習している。
  • 5. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 1. 導入 5 ① 知覚的表現(CNNの出力など)と集合として構造化された表現との間のインターフェイスとして、シンプルなアーキテクチャ・コンポーネ ントであるSlot-Attentionモジュールを導入。 ② 教師なし物体検出にSlot-Attentionベースのアーキテクチャを適用し、よりメモリ効率が高く、訓練時間が大幅に短縮したうえで、関 連する最先端のアプローチと同等以上の性能。 ③ オブジェクトのセグメンテーションを教師なしで学習したうえで、教師付き物体プロパティ予測にSlot-Attentionモジュールが使用できる ことを実証。 本論文の貢献 ※本論文におけるプロパティ予測とは、 オブジェクトの(位置、形状、素材、色、大きさ)を予測することを意味する。
  • 6. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 2. 関連研究 6 • シーンが複数の実体で構成されているという仮定から、画像を「分離され た表現で解釈可能なオブジェクト」にセグメンテーションが可能であることを 示した論文。 • 潜在物体表現を利用することで、教師なし学習でオクルージョンを塗り潰 すように学習し、より多くのオブジェクトを持つシーンや、新しい特徴の組み 合わせを持つ見たことがないオブジェクトに外挿していく。 • 反復的変分推論を使用して、画像内のオブジェクトを記述する潜在変 数のセットを推論する。 • 物体ごとの相互関係はモデリングできない。 IODINE(Multi-Object Representation Learning with Iterative Variational Inference) ①Object discovery
  • 7. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 2. 関連研究 7 MONet(Unsupervised Scene Decomposition and Representation) • 画像の領域の周りのAttentionマスクと再構成を提供するために教 師なしで、再帰的Attentionネットワークと一緒にVAEをEnd-to- Endで学習。 • マスクの生成→VAEでマスク領域を再構成 という処理を再帰的に 繰り返し行う。 • マスクの生成の際にCNNの計算をマスク数分だけ行うため、計算効 率が悪い 。 • 複数のエンコード・デコードステップが必要(GENESISも同様。) ①Object discovery
  • 8. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 2. 関連研究 8 DSPN(Deep Set Prediction Network) • 集合の符号化、生成、集合から集合へのマッピングの探索。 • ほとんどの先行研究は、要素ごとに出力セットの順序表現を学習している ため、テスト時に異なるセットのカーディナリティ(要素の数)に一般化でき なかった。 • DSPNは、各例に対して内部勾配降下ループを実行することで permutation symmetry(順列対称性)を尊重するが、収束のため に多くのステップを必要とし、いくつかの損失ハイパーパラメータを慎重に調 整する必要がある。 出典:https://postersession.ai/poster/deep-set-prediction-networks/ ②Neural networks for sets ※DETR と TSPN は、条件付き集合生成に Transformer を使用することを提案している。 DETR は出力集合のpermutation symmetryを考慮していない。
  • 9. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 2. 関連研究 9 <参考>集合予測における不連続性と責任問題 出典:https://postersession.ai/poster/deep-set-prediction-networks/ ②Neural networks for sets • ニューラルネットワークは不連続なジャンプを考慮せず関数のみをモデル化するため、このジャンプはニューラルネットワークの学習にとって 課題となる。 • 多角形の頂点の数(設定された要素の数)を増やすと、すべての出力が一度に不連続に変化しなければならない状況の頻度が増 え、モデル化が非常に難しくなります。このように出力するべきものが定まっているのにもかかわらず、入力の順序が定まっていないと多くの 問題が発生する。 • 正方形(図の左上)を90度回転させると(図の右上)、集合内の 要素を単純に並べ替えたものになる。これらは同じ集合なので、同じ潜 在表現にエンコードし、同じリスト表現にデコードする。つまり、各出力は 回転後も同じ位置のポイントを生成する責任がある。 • しかし、これは、90度回転中のある時点(図の下のパス)で、出力の 割り当て方法に不連続なジャンプ(図の赤い矢印)が存在する必要 があることも意味する。 この問題に対処するためには、入力の順序と出力の順序を独立な関係なものにするため、入力をpermutation invarianceにし、 ②集合を入力した時に、各要素に1対1対応する集合を出力する permutation equivarianceなモデルにすることが必要。
  • 10. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 手法 10 モデル構造 ① CNNによって画像特徴量を抽出する(ImageFeatures) ② Positional embeddingで位置情報をImageFeaturesに付与する (ImageFeatures₊P) ③ Slot-AttentionでInput(k, v)とSlot(q)からAttentionスコアを取得する。 ④ T回反復してSlotを学習させ、Inputのなかの任意のオブジェクトと相同関係を構 築する。 ※③と④がSlot-Attention module。
  • 11. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 手法 11 3.1 Slot Attention Module • Slot-AttentionモジュールはCNNから抽出されたN個の入力特徴ベクトルのセット=Inputを、K個の出力ベクトルのセット=Slotを 用いて物体中心表現を共通次元Dにマッピングする。 • 共有された学習可能なパラメータµ∈𝑅 𝐷 𝑠𝑙𝑜𝑡𝑠を持つガウス分布から初期値をサンプリングすることでスロットを初期化。 • InputをKey、SlotをQueryとしてAttentionスコアをとり、その加重平均を取ることでマッピング。 K=4のSlot
  • 12. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 手法 12 3.1 Slot Attention Module 1slotで1オブジェクトを表現するように 特徴量を変化させていく。 • 各反復では、SlotはソフトマックスベースのAttentionメカニズムを介して入 力の一部を説明するために競い合い、特徴量を変化させる。 • 具体的にはInputとSlotによって得ることができたAttentionスコアを使って 再帰的にSlotの表現を更新する。 • 入力値を割り当てられたSlotに集約するために、加重平均を使用。
  • 13. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 手法 13 3.1 Slot Attention Module • 更にGRUの出力をReLU活性化と残差接続を持 つ多層パーセプトロン(MLP)で変換することで、性 能を向上させる。 • モジュールの入力とSlotの特徴の両方に LayerNormを適用している。これは学習の収束 を早めるために利用されている。 Slot Attention の特性 (1)入力に関するpermutation invariance(入力の順番を変えても出力が同じになる)。 (2)Slotの順序に関するpermutation equivariance(集合を入力して各要素に1対1対応する集合を出力する)。 ⇒これらの特性により、Slotは共通の表現形式を学習し、各Slotが入力内の任意の物体にバインドできる。
  • 14. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 手法 14 • Slot-Attentionは入力表現をベクトルの集合に変換するため、 教師なしオブジェクト発見のためのオートエンコーダーの一部として 使用することができる。 • 各Slotでは画像の領域または一部のみをエンコードしており、それ らをまとめてデコードすることで、元の画像を再構築する形で画像 空間に戻すことができる。 3.2 Object Discovery Encoder Decoder • エンコーダは(i)Positional embedding されたCNNと、(ii)Slot-Attentionモジュールの、2つのコンポーネントで構成。 • Slot-Attentionの出力はSlotの集合であり、シーンのグループ化(オブジェクトなど)を表している。 • 各Slotは、2Dグリッドにブロードキャストされ、位置の埋め込みが追加される形で個別にデコードされる。 • 各グリッドはCNNを用いてデコードされ、W × H × 4のサイズの出力を生成する。 • 出力チャネルは、RGBカラーチャネルとアルファマスク(正規化されていない)をエンコード。 • Softmaxを用いてSlot間のアルファマスクを正規化し、それらをmixture weightとして使用して1つのRGB画像に結合。
  • 15. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 手法 15 • 入力画像と予測対象の集合が与えられ、それぞれがシーン内の 物体を記述している。 • 課題は、ターゲットの順序が任意であるため、K個の要素のセッ トに対してK!個の等価表現が存在すること。(これはDETR などが抱えていた問題と同様。) • そのため、スロットは訓練中にその内容を入れ替えることで、入 力順序と出力順序の独立性を確立する。 3.3 Set Prediction Encoder Classifier • Object Discoveryと同じアーキテクチャを使用。 • 各Slotに対して、Slot間で共有されるパラメーターを使用してMLPを適用する。 • 予測とラベルの順序は任意であるため、DETR同様ハンガリアンアルゴリズムを使用してそれらを照合している。 ⇒これによりSlot Attentionは、入力シーンの分散表現を、各オブジェクト別に分類できる集合表現に変えるために使用できる。
  • 16. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. 実験 16 ※ディープセット予測ネットワーク(DSPN)は、Slot-Attention以外では順列対称性を尊重する唯一の集合予測モデル ※単純なMLPベースのベースライン(Slot MLP)は、Slot AttentionをMLPに置き換え、 CNNの特徴マップ(サイズを変更して平坦化したもの)からSlot表現にマップするモデル。 比較モデルとデータセット 2つのオブジェクト中心のタスク (教師なしと教師あり)でSlot Attentionモジュールを評価。 タスク 比較モデル テストデータ データセット (教師なし) 物体検出 (教師あり) 集合予測 IODINE/MONet SlotMLP IODINE/MONet SlotMLP 未見シーンで構成された ホールドアウトテストデータ CLEVR(マスク付き) Multi-dSprites Tetrominoes CLEVR(マスク付き)
  • 17. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. 実験 17 定量評価 4.1 Object Discovery • 表から、一般的に2つの最新のベースラインと比較し て良好な結果を示している。IODINEと比較して、 モデルはメモリ消費量と実行時間の両方の点で効 率的。 教師なしシーン分解の先行アプローチと比較して、オブジェクトのセグメンテーションの質、学習速度、メモリ効率の両面で良い。 またテスト時には、Slot Attentionをデコーダなしで、未経験シーンからオブジェクト中心の表現を得ることができる。 • グラフでは、反復回数を増した場合の方が精度が上がることが示されている。 • また訓練時からKの値を増やして、よりシーン内に多くのオブジェクトがある画像につい てテストされているが、それでもセグメンテーション性能は低下しないことが確認された。 (後のSet Predictionは、Kの値を増やすと性能が低下。)
  • 18. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. 実験 18 定性評価 4.1 Object Discovery • セグメンテーションの経過を表した図。 • オブジェクトよりもSlotの数が多い場合、 モデルはSlotを空に保つ(背景のみを キャプチャする)ように学習。 • 単一のSlotだけに背景をキャプチャする のではなく、すべてのSlotに一様な背景 を広げていることがわかる。これは、物体 の分離や再構成の品質を損なうことのな いAttentionメカニズムの成果物である 可能性が高い。 • 1回目の反復ではまだ複数のオブジェクトの一部を1つのSlotにマッピングしているが、2回目の反復ですでに個々のオブジェクトの抽出に 特化することを学習している。
  • 19. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. 実験 19 4.2 Set Prediction (左図)全体的に、DSPNのベースラインと同等以上の性能を示している。 (中央図)反復回数を増やすと、一般的に性能が向上する。 (右図)Slot-Attentionは、Slot数を変更することで、テスト時により多くのオブジェクトを扱うことができる。 CLEVR6(K=6)でモデルを学習し、6以上のオブジェクト数でテストを行うと、APが緩やかに低下した。 この集合予測タスクを解くためには、各Slotが異なるオブジェクトに注目する必要があるという考察がなされている。 定量評価
  • 20. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. 実験 20 4.2 Set Prediction • 2つのCLEVR画像について、各スロットのAttentionマップを可視化。 • セグメンテーションマスクを使用せずに、対象物のプロパティを予測するためだけに訓練されているにもかかわらず、自然に対象物をセグメ ント化していることもわかる。 定性評価 セット構造化されたプロパティ予測タスクのためにオブジェクトの表現を学習し、実装と調整が非常に容易であると同時に、先行する最先端 のアプローチに匹敵する結果を達成したと言える。 Attentionマスクはシーンを自然にセグメンテーションするため、モデルの予測結果をデバッグや解釈する際に有用。
  • 21. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 5. まとめ 21 まとめ • 「物体中心表現」をもつ潜在表現を獲得し、物体認識のために利用する手法。 • 低レベルの知覚入力から物体中心の抽象表現を学習する「Slot-Attention」を提案。 • 教師なしの物体検出と教師ありの物体ラベル予測では従来の手法と比べ、メモリ消費と計算の面でより効率的で、 高い精度。
  • 22. Copyright (C) Present Square Co., Ltd. All Rights Reserved. Appendix 参考文献 22 • [16] Klaus Greff, Raphaël Lopez Kaufman, Rishabh Kabra, Nick Watters, Christopher Burgess, Daniel Zoran, Loic Matthey, Matthew Botvinick, and Alexander Lerchner. Multi-object representation learning with iterative variational inference. In International Conference on Machine Learning, pages 2424–2433, 2019. • [27] Martin Engelcke, Adam R Kosiorek, Oiwi Parker Jones, and Ingmar Posner. GENESIS: Generative scene inference and sampling with object-centric latent representations. arXiv preprint arXiv:1907.13052, 2019. • [31] Yan Zhang, Jonathon Hare, and Adam Prugel-Bennett. Deep set prediction networks. In Advances in Neural Information Processing Systems, pages 3207–3217, 2019. • [59] Nicolas Carion, Francisco Massa, Gabriel Synnaeve, Nicolas Usunier, Alexander Kirillov, and Sergey Zagoruyko. End-to-end object detection with transformers. arXiv preprint arXiv:2005.12872, 2020. • [61] Adam R Kosiorek, Hyunjik Kim, and Danilo J Rezende. Conditional set generation with transformers. ICML 2020 Object-Oriented Learning Workshop, https://github.com/oolworkshop/oolworkshop. github.io/blob/master/pdf/OOL_31.pdf, 2020.