【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx

ARISE analytics
ARISE analyticsARISE analytics
PiCO: Contrastive Label
Disambiguation for Partial Label
Learning
©2022 ARISE analytics Reserved.
ARISE analytics
近藤 真暉
発表文献
©2022 ARISE analytics Reserved. 1
【本発表の対象】
論文:https://arxiv.org/pdf/2201.08984v2.pdf
特に注釈のない画像は、上記からの引用です。
【補足資料】
PJページ:https://hbzju.github.io/pico/
スライド:https://iclr.cc/media/iclr-2022/Slides/6038.pdf
発表動画:https://iclr.cc/virtual/2022/poster/6038
論文概要
©2022 ARISE analytics Reserved. 2
画像引用:https://dognoie.com/blog/dog-picturebook/alaskaanmalamute-siberianhusky/
シベリアンハスキー(左)とアラスカンマラミュート(右)が曖昧でもうまく分
離できる手法を提案 → ICLR 2022 Outstanding Paper Honorable Mentions(優
秀賞)
主な貢献
① Partial Label Learning への対照学習の導入
② Partial Label Learning における性能向上とより難しいタスクへの挑戦
③ PiCOの理論的な解析
Partial Label Learning(PLL:部分ラベル学習)
©2022 ARISE analytics Reserved. 3
複数のラベル候補(あいまいなラベル)を用いて行われる学習
GT∈ラベル候補Yi であることを前提とし、真のラベルを特定することが目的
アノテーションコストが低いため、応用が効きやすい
ラベル候補Yi:Hasky/Malamute/Samoyed
GT:Malamute
Supervised Learning
Partial Label Learning
ラベルの曖昧さ問題の例
©2022 ARISE analytics Reserved. 4
画像引用:Learning from Partial Labels(JMLR 2011)
別目的からのアノテーション流用においてもラベルの曖昧さ問題は発生。修正
はコスト大
→ PLL問題として解くことで、アノテーション流用を容易にしコストを下げる
ことができる
字幕・キャプションを用いて人物ラベル付与し
たい場合、
どちらのラベルを付与すればよいか?
PiCOの全体像
©2022 ARISE analytics Reserved. 5
MoCo(CVPR2020)をベースに、ふたつの工夫を導入
① Positive Sample Selection
② Prototype-based Label Disambiguation
←① Positive Sample Selection
←② Prototype-based
Label Disambiguation
MoCo(CVPR 2020)
©2022 ARISE analytics Reserved. 6
詳細は論文Momentum Contrast for Unsupervised Visual Representation Learning(CVPR 2020)参照
過去の入力
(Negative sample)
↑
同じ犬でもnegativeと扱う
(PiCOはここを解決)
momentum
encoder(t-1)
momentum
encoder(t-2)
momentum
encoder(t-3)
positive sample
Embedding pool
Keyの鮮度を保つため、
1iter終わったら、古いk
を捨てて新しいkを追加
positiveは近くなるように
negativeは遠くなるように
Lossを算出してEncoderを更新
重み更新
encoderに
近くなるように
若干重み更新
momentum encoder の重み更新式
↑encoder の重み
↑
momentum
encoder の重み
mは0.999など非常に大きな値が用いられ、急激な重み変化を抑制
重み更新なし
① Positive Sample Selection
©2022 ARISE analytics Reserved. 7
Positive Sampleを増やすため、Momentum Embeddingに対しラベル予測を行
い再利用。対照学習を用いた埋め込み表現の学習が効率よく行える
ただし、このままではPLL問題が解けずラベルがあいまいなまま
→ ②Prototype-based Label Disambiguation で対処
P(x) : positive set
A(x) : Embedding pool(Momentum Embeddings)
1. Queryのラベル予測を行う
2. Embedding poolから同じラベルのmomentum
Embeddingを取り出す
3. 取り出したmomentum EmbeddingをPositive
Pairとして扱う
4. Contrastive Loss と Classifier Loss を算出
5. EncoderとMomentum Encoderの重みを更新
犬
猫
猫
犬だけ取り
出し
犬or猫分類
② Prototype-based Label Disambiguation
©2022 ARISE analytics Reserved. 8
一部、論文の図と発表スライドの図を組み合わせて加工
Prototype Embedding Vector を導入し、クラスタリングによってラベル割り当
て
Prototype Embedding Vectorは都度更新されるため、Contrasitive Learningによ
る埋め込み表現が反映される 1. Queryのラベル予測モデルの学習に用いる疑似ラ
ベル(Disambiguated Labels)を一様分布で初期
化(※one-hotではなく連続値を用いる)
2. Queryの埋め込み特徴を取得
3. 最も近いPrototype Embeddig Vector u_jを探索
4. 移動平均法を用いてPrototype Embedding Vector
u_jを更新
5. Prototype Embedding Vector u_j に対応するクラ
スが大きくなるよう、それ以外は小さくなるよう
に疑似ラベルを更新
※Φは0~1の範囲で指定する疑似ラベルの更新量
を調整するためのモメンタム係数(超パラメ
タ)
2つの改良による効果
©2022 ARISE analytics Reserved. 9
一見関係なさそうな①②の改良
お互いにうまく協調して学習できる
①によるContrasitive Learningで埋め込み空間を学習
↓
埋め込み空間が適切に学習されることで、うまくクラスタリングできるように
なる
↓
クラスタリング効果が発揮されると、②Prototype Embedding Vectorがきれい
に収束
↓
Prototype Embedding Vectorが適切に設定されると、①のPositive Sample
Selectionで正しいサンプルを選択できる
↓
これを繰り返すことで、相互的に補完しあい学習プロセス全体が収束
PiCOは教師ありと教師なしクラスタリングのハイブリッド
学習初期は学習初期はラベル候補の信頼度が高い
学習が進むにつれてプロトタイプの信頼度が高くなる
移動平均方式で擬似ターゲットを更新することで、スムーズに
改善される
PiCOの具体的な処理フロー
©2022 ARISE analytics Reserved. 10
ミニバッチ取
得
ミニバッチからサンプル取得し、Augmentation
→MLPを通し埋め込み特徴を取得
取得した埋め込み特徴とキュー(Embedding Pool)の埋め込み特徴をまと
める
ミニバッチから取得したサンプルに対し、queryと同じAugumentationを実施してからクラス分類(Bqと
は別)
クラス分類の結果に応じて、Prototype Embedding Vectorを移動平均法で更新
まとめた埋め込み特徴から同じクラスのものを取り出し、Positive Sampleとして扱う
Prototype Embedding Vector からクエリに最も近いものを選択し、One-hot-vectorで表現
queryに対応する疑似ラベルを更新 : s_iの初期値は1/(ラベル数)で初期化された一様分布
Contrastive Lossを算出
Classfication Lossを算出
ふたつのLossをもとに、Encoderの重み
を更新
移動平均法に基づき、Momentum Encoderの重みを更新
Momentum Encoderで取得した埋め込み特徴と分類結果をキューに追加し、古い埋め込み特徴を捨
てる
実験設定
©2022 ARISE analytics Reserved. 11
画像引用:CIFAR-10 and CIFAR-100 dataset
CIFAR-10/100で評価
正しいラベル+ダミーのラベルをランダムに選択してラベル候補を構築(PLL
問題にする)
正しいラベル GT = Airplane
↓
ラベル候補Yi = [Airplane, Bird, Deer, Dog, Horse]
ダミーのラベル数はPartial Rate qで決定
CIFAR-10 : q ∈ {0.1, 0.3, 0.5}
CIFAR-100 : q ∈ {0.01, 0.05, 0.1}
実験結果 – 定量評価
©2022 ARISE analytics Reserved. 12
Supervised(教師あり)とほぼ同等の性能を確保
実験結果 – 定性評価
©2022 ARISE analytics Reserved. 13
t-SNEで可視化。(a)Uniform featuresは一様分布で初期化された疑似ラベルを
用いたものであり、うまく分離できていない。先行研究で最も良かった
(b)PRODEN featuresではdog-cat-frogやairplane-shipが混ざっている。(c)PiCO
featuresはきれいに分離されている。高品質な埋め込み表現を学習できている
ことを示す
実験結果 – 改良効果分析
©2022 ARISE analytics Reserved. 14
今回の改良のうち、どの改良が寄与したかを分析
②Prototype-based Label Disambiguation の工夫よりも、① Positive Sample
Selection(対照学習 L_cont)の有無が性能向上に寄与
モメンタム係数Φ=0のときの②疑似ラベル更新については、Softmaxによるク
ラス確率またはOne-hotで更新したほうが効果的・モメンタム係数は0.9が良い
実験結果 – より難しい問題設定では?
©2022 ARISE analytics Reserved. 15
画像引用:Fine-grained Visual-textual Representation Learning(CVPR2020), CIFAR-10 and CIFAR-100 dataset
CUB-200/CIFAR-100-Hでも実験
他手法と比べ最も良い性能が得られることを確認
CUB-200:200種類の鳥画像
CIFAR-100-H :CIFAR-100と同じだが、同じ
superclassだけで部分ラベルを構築
なぜPiCOはPPL問題をうまく解くことができるのか?
©2022 ARISE analytics Reserved. 16
画像引用:Understanding Contrastive Representation Learning through Alignment and Uniformity on the Hypersphere
(ICML 2020)
対照学習のクラスタリングへの影響から分析を実施
PiCOで用いているContrasitive Lossの損失関数は (a)alignment、(b)uniformity
の性質を持つ
(a)alignment
似たサンプルからは似た特徴を
生成
(クラス内分散を最小化)
(b)uniformity
超球面上で一様性を持つ
(クラス間分散を最大化)
なぜPiCOはPPL問題をうまく解くことができるのか?
©2022 ARISE analytics Reserved. 17
(a)alignment に注目して解析した結果、
「(a)を最小化すると、式(10)の尤度の下限も最大化する」という定理を発見(証
明省略)
式(10)の尤度の下限が最大化されると、クラス内密度が高くなる(平均ベクト
ルのノルムが小さくなる)効果がある → PiCOはコンパクトかつ良い表現を獲得
できる
ノルム大きい
(密度薄い)
ノルム小さい
(密度高い)
まとめ
©2022 ARISE analytics Reserved. 18
画像引用:Learning from Partial Labels(JMLR 2011)
PiCOの主な貢献
① Partial Label Learning への対照学習の導入
② Partial Label Learning における性能向上とより難しいタスクへの挑戦
③ PiCOの理論的な解析
→ 教師あり学習と同等の性能を達成
他タスクのアノテーション流用によるモデルの高精度化が期待できるように
参考文献
©2022 ARISE analytics Reserved. 19
【本発表の対象】
論文:https://arxiv.org/pdf/2201.08984v2.pdf
【補足資料】
PJページ:https://hbzju.github.io/pico/
スライド:https://iclr.cc/media/iclr-2022/Slides/6038.pdf
発表動画:https://iclr.cc/virtual/2022/poster/6038
【その他参考文献】
Learning from Partial Labels(JMLR 2011)
Understanding Contrastive Representation Learning through Alignment and Uniformity on the Hypersphere (ICML 2020)
Fine-grained Visual-textual Representation Learning(CVPR2020)
Momentum Contrast for Unsupervised Visual Representation Learning(CVPR 2020)
A Simple Framework for Contrastive Learning of Visual Representations(ICML 2020)
Advancing Self-Supervised and Semi-Supervised Learning with SimCLR
[CVPR2020読み会@オンライン(前編)]Momentum Contrast for Unsupervised Visual Representation Learning
CIFAR-10 and CIFAR-100 dataset
Best Partner for innovation, Best Creator for the future.
1 von 21

Recomendados

Depth Estimation論文紹介 von
Depth Estimation論文紹介Depth Estimation論文紹介
Depth Estimation論文紹介Keio Robotics Association
2.9K views14 Folien
20190619 オートエンコーダーと異常検知入門 von
20190619 オートエンコーダーと異常検知入門20190619 オートエンコーダーと異常検知入門
20190619 オートエンコーダーと異常検知入門Kazuki Motohashi
7.6K views30 Folien
時系列予測にTransformerを使うのは有効か? von
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?Fumihiko Takahashi
6.7K views29 Folien
【論文調査】XAI技術の効能を ユーザ実験で評価する研究 von
【論文調査】XAI技術の効能を ユーザ実験で評価する研究【論文調査】XAI技術の効能を ユーザ実験で評価する研究
【論文調査】XAI技術の効能を ユーザ実験で評価する研究Satoshi Hara
5.1K views39 Folien
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem... von
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...joisino
3.4K views21 Folien
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜 von
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII
3.8K views40 Folien

Más contenido relacionado

Was ist angesagt?

これからの Vision & Language ~ Acadexit した4つの理由 von
これからの Vision & Language ~ Acadexit した4つの理由これからの Vision & Language ~ Acadexit した4つの理由
これからの Vision & Language ~ Acadexit した4つの理由Yoshitaka Ushiku
6.5K views78 Folien
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法 von
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
3.8K views48 Folien
Deep Learning による視覚×言語融合の最前線 von
Deep Learning による視覚×言語融合の最前線Deep Learning による視覚×言語融合の最前線
Deep Learning による視覚×言語融合の最前線Yoshitaka Ushiku
32.4K views71 Folien
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演) von
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)Shota Imai
2.3K views35 Folien
[DL輪読会]ドメイン転移と不変表現に関するサーベイ von
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイDeep Learning JP
6.8K views54 Folien
“機械学習の説明”の信頼性 von
“機械学習の説明”の信頼性“機械学習の説明”の信頼性
“機械学習の説明”の信頼性Satoshi Hara
4.3K views29 Folien

Was ist angesagt?(20)

これからの Vision & Language ~ Acadexit した4つの理由 von Yoshitaka Ushiku
これからの Vision & Language ~ Acadexit した4つの理由これからの Vision & Language ~ Acadexit した4つの理由
これからの Vision & Language ~ Acadexit した4つの理由
Yoshitaka Ushiku6.5K views
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法 von SSII
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII3.8K views
Deep Learning による視覚×言語融合の最前線 von Yoshitaka Ushiku
Deep Learning による視覚×言語融合の最前線Deep Learning による視覚×言語融合の最前線
Deep Learning による視覚×言語融合の最前線
Yoshitaka Ushiku32.4K views
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演) von Shota Imai
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
Shota Imai2.3K views
[DL輪読会]ドメイン転移と不変表現に関するサーベイ von Deep Learning JP
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP6.8K views
“機械学習の説明”の信頼性 von Satoshi Hara
“機械学習の説明”の信頼性“機械学習の説明”の信頼性
“機械学習の説明”の信頼性
Satoshi Hara4.3K views
機械学習モデルの判断根拠の説明 von Satoshi Hara
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
Satoshi Hara97.9K views
テーブル・テキスト・画像の反実仮想説明 von tmtm otm
テーブル・テキスト・画像の反実仮想説明テーブル・テキスト・画像の反実仮想説明
テーブル・テキスト・画像の反実仮想説明
tmtm otm351 views
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018) von Masakazu Iwamura
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
Masakazu Iwamura13.1K views
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute... von SSII
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2.8K views
物体検出の歴史(R-CNNからSSD・YOLOまで) von HironoriKanazawa
物体検出の歴史(R-CNNからSSD・YOLOまで)物体検出の歴史(R-CNNからSSD・YOLOまで)
物体検出の歴史(R-CNNからSSD・YOLOまで)
HironoriKanazawa1.6K views
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc) von Deep Learning JP
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
Deep Learning JP3.7K views
全力解説!Transformer von Arithmer Inc.
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
Arithmer Inc.9.5K views
機械学習を用いた異常検知入門 von michiaki ito
機械学習を用いた異常検知入門機械学習を用いた異常検知入門
機械学習を用いた異常検知入門
michiaki ito38.4K views
[DL輪読会]相互情報量最大化による表現学習 von Deep Learning JP
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP7.6K views
DNNの曖昧性に関する研究動向 von Naoki Matsunaga
DNNの曖昧性に関する研究動向DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向
Naoki Matsunaga380 views
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集​ 〜 精度向上のための仕組み・倫理や社会性バイアス 〜 von SSII
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集​ 〜 精度向上のための仕組み・倫理や社会性バイアス 〜SSII2021 [TS3] 機械学習のアノテーションにおける データ収集​ 〜 精度向上のための仕組み・倫理や社会性バイアス 〜
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集​ 〜 精度向上のための仕組み・倫理や社会性バイアス 〜
SSII1.9K views
深層生成モデルと世界モデル von Masahiro Suzuki
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki16.6K views
クラシックな機械学習の入門  11.評価方法 von Hiroshi Nakagawa
クラシックな機械学習の入門  11.評価方法クラシックな機械学習の入門  11.評価方法
クラシックな機械学習の入門  11.評価方法
Hiroshi Nakagawa19.6K views

Más de ARISE analytics

【論文レベルで理解しよう!】​ 欠測値処理編​ von
【論文レベルで理解しよう!】​ 欠測値処理編​【論文レベルで理解しよう!】​ 欠測値処理編​
【論文レベルで理解しよう!】​ 欠測値処理編​ARISE analytics
83 views19 Folien
【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​ von
【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​
【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​ARISE analytics
112 views20 Folien
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho... von
【論文読み会】Signing at Scale: Learning to Co-Articulate  Signs for Large-Scale Pho...【論文読み会】Signing at Scale: Learning to Co-Articulate  Signs for Large-Scale Pho...
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho...ARISE analytics
183 views32 Folien
Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (... von
Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (...Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (...
Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (...ARISE analytics
122 views24 Folien
教師なしGNNによるIoTデバイスの異常通信検知の検討 von
教師なしGNNによるIoTデバイスの異常通信検知の検討教師なしGNNによるIoTデバイスの異常通信検知の検討
教師なしGNNによるIoTデバイスの異常通信検知の検討ARISE analytics
1K views21 Folien
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri... von
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...ARISE analytics
574 views18 Folien

Más de ARISE analytics(18)

【論文レベルで理解しよう!】​ 欠測値処理編​ von ARISE analytics
【論文レベルで理解しよう!】​ 欠測値処理編​【論文レベルで理解しよう!】​ 欠測値処理編​
【論文レベルで理解しよう!】​ 欠測値処理編​
ARISE analytics83 views
【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​ von ARISE analytics
【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​
【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​
ARISE analytics112 views
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho... von ARISE analytics
【論文読み会】Signing at Scale: Learning to Co-Articulate  Signs for Large-Scale Pho...【論文読み会】Signing at Scale: Learning to Co-Articulate  Signs for Large-Scale Pho...
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho...
ARISE analytics183 views
Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (... von ARISE analytics
Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (...Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (...
Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (...
ARISE analytics122 views
教師なしGNNによるIoTデバイスの異常通信検知の検討 von ARISE analytics
教師なしGNNによるIoTデバイスの異常通信検知の検討教師なしGNNによるIoTデバイスの異常通信検知の検討
教師なしGNNによるIoTデバイスの異常通信検知の検討
ARISE analytics1K views
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri... von ARISE analytics
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...
ARISE analytics574 views
【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D... von ARISE analytics
【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D...【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D...
【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D...
ARISE analytics464 views
【論文読み会】Autoregressive Diffusion Models.pptx von ARISE analytics
【論文読み会】Autoregressive Diffusion Models.pptx【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx
ARISE analytics5.3K views
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx von ARISE analytics
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx
ARISE analytics552 views
【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice von ARISE analytics
【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice
【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice
ARISE analytics698 views
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3) von ARISE analytics
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
ARISE analytics2.7K views
【論文読み会】On the Expressivity of Markov Reward von ARISE analytics
【論文読み会】On the Expressivity of Markov Reward【論文読み会】On the Expressivity of Markov Reward
【論文読み会】On the Expressivity of Markov Reward
ARISE analytics583 views
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive... von ARISE analytics
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...
ARISE analytics698 views
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds von ARISE analytics
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
ARISE analytics699 views
Counterfaual Machine Learning(CFML)のサーベイ von ARISE analytics
Counterfaual Machine Learning(CFML)のサーベイCounterfaual Machine Learning(CFML)のサーベイ
Counterfaual Machine Learning(CFML)のサーベイ
ARISE analytics29.7K views
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features von ARISE analytics
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
ARISE analytics7.8K views
【論文読み会】Self-Attention Generative Adversarial Networks von ARISE analytics
【論文読み会】Self-Attention Generative  Adversarial Networks【論文読み会】Self-Attention Generative  Adversarial Networks
【論文読み会】Self-Attention Generative Adversarial Networks
ARISE analytics5.3K views
【論文読み会】Universal Language Model Fine-tuning for Text Classification von ARISE analytics
【論文読み会】Universal Language Model Fine-tuning for Text Classification【論文読み会】Universal Language Model Fine-tuning for Text Classification
【論文読み会】Universal Language Model Fine-tuning for Text Classification
ARISE analytics1.9K views

Último

さくらのひやおろし2023 von
さくらのひやおろし2023さくらのひやおろし2023
さくらのひやおろし2023法林浩之
83 views58 Folien
SSH応用編_20231129.pdf von
SSH応用編_20231129.pdfSSH応用編_20231129.pdf
SSH応用編_20231129.pdficebreaker4
30 views13 Folien
The Things Stack説明資料 by The Things Industries von
The Things Stack説明資料 by The Things IndustriesThe Things Stack説明資料 by The Things Industries
The Things Stack説明資料 by The Things IndustriesCRI Japan, Inc.
19 views29 Folien
SNMPセキュリティ超入門 von
SNMPセキュリティ超入門SNMPセキュリティ超入門
SNMPセキュリティ超入門mkoda
31 views15 Folien
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20... von
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...NTT DATA Technology & Innovation
13 views42 Folien
pgvectorを使ってChatGPTとPostgreSQLを連携してみよう!(PostgreSQL Conference Japan 2023 発表資料) von
pgvectorを使ってChatGPTとPostgreSQLを連携してみよう!(PostgreSQL Conference Japan 2023 発表資料)pgvectorを使ってChatGPTとPostgreSQLを連携してみよう!(PostgreSQL Conference Japan 2023 発表資料)
pgvectorを使ってChatGPTとPostgreSQLを連携してみよう!(PostgreSQL Conference Japan 2023 発表資料)NTT DATA Technology & Innovation
185 views63 Folien

Último(12)

さくらのひやおろし2023 von 法林浩之
さくらのひやおろし2023さくらのひやおろし2023
さくらのひやおろし2023
法林浩之83 views
SSH応用編_20231129.pdf von icebreaker4
SSH応用編_20231129.pdfSSH応用編_20231129.pdf
SSH応用編_20231129.pdf
icebreaker430 views
The Things Stack説明資料 by The Things Industries von CRI Japan, Inc.
The Things Stack説明資料 by The Things IndustriesThe Things Stack説明資料 by The Things Industries
The Things Stack説明資料 by The Things Industries
CRI Japan, Inc.19 views
SNMPセキュリティ超入門 von mkoda
SNMPセキュリティ超入門SNMPセキュリティ超入門
SNMPセキュリティ超入門
mkoda31 views
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20... von NTT DATA Technology & Innovation
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
pgvectorを使ってChatGPTとPostgreSQLを連携してみよう!(PostgreSQL Conference Japan 2023 発表資料) von NTT DATA Technology & Innovation
pgvectorを使ってChatGPTとPostgreSQLを連携してみよう!(PostgreSQL Conference Japan 2023 発表資料)pgvectorを使ってChatGPTとPostgreSQLを連携してみよう!(PostgreSQL Conference Japan 2023 発表資料)
pgvectorを使ってChatGPTとPostgreSQLを連携してみよう!(PostgreSQL Conference Japan 2023 発表資料)
「概念モデリング自動化に向けた第一歩」 ~ ChatGPT・Open AI 活用による開発対象のモデル化 von Knowledge & Experience
「概念モデリング自動化に向けた第一歩」 ~ ChatGPT・Open AI 活用による開発対象のモデル化「概念モデリング自動化に向けた第一歩」 ~ ChatGPT・Open AI 活用による開発対象のモデル化
「概念モデリング自動化に向けた第一歩」 ~ ChatGPT・Open AI 活用による開発対象のモデル化
Windows 11 information that can be used at the development site von Atomu Hidaka
Windows 11 information that can be used at the development siteWindows 11 information that can be used at the development site
Windows 11 information that can be used at the development site
Atomu Hidaka21 views
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料) von NTT DATA Technology & Innovation
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)
01Booster Studio ご紹介資料 von ssusere7a2172
01Booster Studio ご紹介資料01Booster Studio ご紹介資料
01Booster Studio ご紹介資料
ssusere7a2172220 views
Web3 Career_クレデン資料 .pdf von nanamatsuo
Web3 Career_クレデン資料 .pdfWeb3 Career_クレデン資料 .pdf
Web3 Career_クレデン資料 .pdf
nanamatsuo8 views

【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx

  • 1. PiCO: Contrastive Label Disambiguation for Partial Label Learning ©2022 ARISE analytics Reserved. ARISE analytics 近藤 真暉
  • 2. 発表文献 ©2022 ARISE analytics Reserved. 1 【本発表の対象】 論文:https://arxiv.org/pdf/2201.08984v2.pdf 特に注釈のない画像は、上記からの引用です。 【補足資料】 PJページ:https://hbzju.github.io/pico/ スライド:https://iclr.cc/media/iclr-2022/Slides/6038.pdf 発表動画:https://iclr.cc/virtual/2022/poster/6038
  • 3. 論文概要 ©2022 ARISE analytics Reserved. 2 画像引用:https://dognoie.com/blog/dog-picturebook/alaskaanmalamute-siberianhusky/ シベリアンハスキー(左)とアラスカンマラミュート(右)が曖昧でもうまく分 離できる手法を提案 → ICLR 2022 Outstanding Paper Honorable Mentions(優 秀賞) 主な貢献 ① Partial Label Learning への対照学習の導入 ② Partial Label Learning における性能向上とより難しいタスクへの挑戦 ③ PiCOの理論的な解析
  • 4. Partial Label Learning(PLL:部分ラベル学習) ©2022 ARISE analytics Reserved. 3 複数のラベル候補(あいまいなラベル)を用いて行われる学習 GT∈ラベル候補Yi であることを前提とし、真のラベルを特定することが目的 アノテーションコストが低いため、応用が効きやすい ラベル候補Yi:Hasky/Malamute/Samoyed GT:Malamute Supervised Learning Partial Label Learning
  • 5. ラベルの曖昧さ問題の例 ©2022 ARISE analytics Reserved. 4 画像引用:Learning from Partial Labels(JMLR 2011) 別目的からのアノテーション流用においてもラベルの曖昧さ問題は発生。修正 はコスト大 → PLL問題として解くことで、アノテーション流用を容易にしコストを下げる ことができる 字幕・キャプションを用いて人物ラベル付与し たい場合、 どちらのラベルを付与すればよいか?
  • 6. PiCOの全体像 ©2022 ARISE analytics Reserved. 5 MoCo(CVPR2020)をベースに、ふたつの工夫を導入 ① Positive Sample Selection ② Prototype-based Label Disambiguation ←① Positive Sample Selection ←② Prototype-based Label Disambiguation
  • 7. MoCo(CVPR 2020) ©2022 ARISE analytics Reserved. 6 詳細は論文Momentum Contrast for Unsupervised Visual Representation Learning(CVPR 2020)参照 過去の入力 (Negative sample) ↑ 同じ犬でもnegativeと扱う (PiCOはここを解決) momentum encoder(t-1) momentum encoder(t-2) momentum encoder(t-3) positive sample Embedding pool Keyの鮮度を保つため、 1iter終わったら、古いk を捨てて新しいkを追加 positiveは近くなるように negativeは遠くなるように Lossを算出してEncoderを更新 重み更新 encoderに 近くなるように 若干重み更新 momentum encoder の重み更新式 ↑encoder の重み ↑ momentum encoder の重み mは0.999など非常に大きな値が用いられ、急激な重み変化を抑制 重み更新なし
  • 8. ① Positive Sample Selection ©2022 ARISE analytics Reserved. 7 Positive Sampleを増やすため、Momentum Embeddingに対しラベル予測を行 い再利用。対照学習を用いた埋め込み表現の学習が効率よく行える ただし、このままではPLL問題が解けずラベルがあいまいなまま → ②Prototype-based Label Disambiguation で対処 P(x) : positive set A(x) : Embedding pool(Momentum Embeddings) 1. Queryのラベル予測を行う 2. Embedding poolから同じラベルのmomentum Embeddingを取り出す 3. 取り出したmomentum EmbeddingをPositive Pairとして扱う 4. Contrastive Loss と Classifier Loss を算出 5. EncoderとMomentum Encoderの重みを更新 犬 猫 猫 犬だけ取り 出し 犬or猫分類
  • 9. ② Prototype-based Label Disambiguation ©2022 ARISE analytics Reserved. 8 一部、論文の図と発表スライドの図を組み合わせて加工 Prototype Embedding Vector を導入し、クラスタリングによってラベル割り当 て Prototype Embedding Vectorは都度更新されるため、Contrasitive Learningによ る埋め込み表現が反映される 1. Queryのラベル予測モデルの学習に用いる疑似ラ ベル(Disambiguated Labels)を一様分布で初期 化(※one-hotではなく連続値を用いる) 2. Queryの埋め込み特徴を取得 3. 最も近いPrototype Embeddig Vector u_jを探索 4. 移動平均法を用いてPrototype Embedding Vector u_jを更新 5. Prototype Embedding Vector u_j に対応するクラ スが大きくなるよう、それ以外は小さくなるよう に疑似ラベルを更新 ※Φは0~1の範囲で指定する疑似ラベルの更新量 を調整するためのモメンタム係数(超パラメ タ)
  • 10. 2つの改良による効果 ©2022 ARISE analytics Reserved. 9 一見関係なさそうな①②の改良 お互いにうまく協調して学習できる ①によるContrasitive Learningで埋め込み空間を学習 ↓ 埋め込み空間が適切に学習されることで、うまくクラスタリングできるように なる ↓ クラスタリング効果が発揮されると、②Prototype Embedding Vectorがきれい に収束 ↓ Prototype Embedding Vectorが適切に設定されると、①のPositive Sample Selectionで正しいサンプルを選択できる ↓ これを繰り返すことで、相互的に補完しあい学習プロセス全体が収束 PiCOは教師ありと教師なしクラスタリングのハイブリッド 学習初期は学習初期はラベル候補の信頼度が高い 学習が進むにつれてプロトタイプの信頼度が高くなる 移動平均方式で擬似ターゲットを更新することで、スムーズに 改善される
  • 11. PiCOの具体的な処理フロー ©2022 ARISE analytics Reserved. 10 ミニバッチ取 得 ミニバッチからサンプル取得し、Augmentation →MLPを通し埋め込み特徴を取得 取得した埋め込み特徴とキュー(Embedding Pool)の埋め込み特徴をまと める ミニバッチから取得したサンプルに対し、queryと同じAugumentationを実施してからクラス分類(Bqと は別) クラス分類の結果に応じて、Prototype Embedding Vectorを移動平均法で更新 まとめた埋め込み特徴から同じクラスのものを取り出し、Positive Sampleとして扱う Prototype Embedding Vector からクエリに最も近いものを選択し、One-hot-vectorで表現 queryに対応する疑似ラベルを更新 : s_iの初期値は1/(ラベル数)で初期化された一様分布 Contrastive Lossを算出 Classfication Lossを算出 ふたつのLossをもとに、Encoderの重み を更新 移動平均法に基づき、Momentum Encoderの重みを更新 Momentum Encoderで取得した埋め込み特徴と分類結果をキューに追加し、古い埋め込み特徴を捨 てる
  • 12. 実験設定 ©2022 ARISE analytics Reserved. 11 画像引用:CIFAR-10 and CIFAR-100 dataset CIFAR-10/100で評価 正しいラベル+ダミーのラベルをランダムに選択してラベル候補を構築(PLL 問題にする) 正しいラベル GT = Airplane ↓ ラベル候補Yi = [Airplane, Bird, Deer, Dog, Horse] ダミーのラベル数はPartial Rate qで決定 CIFAR-10 : q ∈ {0.1, 0.3, 0.5} CIFAR-100 : q ∈ {0.01, 0.05, 0.1}
  • 13. 実験結果 – 定量評価 ©2022 ARISE analytics Reserved. 12 Supervised(教師あり)とほぼ同等の性能を確保
  • 14. 実験結果 – 定性評価 ©2022 ARISE analytics Reserved. 13 t-SNEで可視化。(a)Uniform featuresは一様分布で初期化された疑似ラベルを 用いたものであり、うまく分離できていない。先行研究で最も良かった (b)PRODEN featuresではdog-cat-frogやairplane-shipが混ざっている。(c)PiCO featuresはきれいに分離されている。高品質な埋め込み表現を学習できている ことを示す
  • 15. 実験結果 – 改良効果分析 ©2022 ARISE analytics Reserved. 14 今回の改良のうち、どの改良が寄与したかを分析 ②Prototype-based Label Disambiguation の工夫よりも、① Positive Sample Selection(対照学習 L_cont)の有無が性能向上に寄与 モメンタム係数Φ=0のときの②疑似ラベル更新については、Softmaxによるク ラス確率またはOne-hotで更新したほうが効果的・モメンタム係数は0.9が良い
  • 16. 実験結果 – より難しい問題設定では? ©2022 ARISE analytics Reserved. 15 画像引用:Fine-grained Visual-textual Representation Learning(CVPR2020), CIFAR-10 and CIFAR-100 dataset CUB-200/CIFAR-100-Hでも実験 他手法と比べ最も良い性能が得られることを確認 CUB-200:200種類の鳥画像 CIFAR-100-H :CIFAR-100と同じだが、同じ superclassだけで部分ラベルを構築
  • 17. なぜPiCOはPPL問題をうまく解くことができるのか? ©2022 ARISE analytics Reserved. 16 画像引用:Understanding Contrastive Representation Learning through Alignment and Uniformity on the Hypersphere (ICML 2020) 対照学習のクラスタリングへの影響から分析を実施 PiCOで用いているContrasitive Lossの損失関数は (a)alignment、(b)uniformity の性質を持つ (a)alignment 似たサンプルからは似た特徴を 生成 (クラス内分散を最小化) (b)uniformity 超球面上で一様性を持つ (クラス間分散を最大化)
  • 18. なぜPiCOはPPL問題をうまく解くことができるのか? ©2022 ARISE analytics Reserved. 17 (a)alignment に注目して解析した結果、 「(a)を最小化すると、式(10)の尤度の下限も最大化する」という定理を発見(証 明省略) 式(10)の尤度の下限が最大化されると、クラス内密度が高くなる(平均ベクト ルのノルムが小さくなる)効果がある → PiCOはコンパクトかつ良い表現を獲得 できる ノルム大きい (密度薄い) ノルム小さい (密度高い)
  • 19. まとめ ©2022 ARISE analytics Reserved. 18 画像引用:Learning from Partial Labels(JMLR 2011) PiCOの主な貢献 ① Partial Label Learning への対照学習の導入 ② Partial Label Learning における性能向上とより難しいタスクへの挑戦 ③ PiCOの理論的な解析 → 教師あり学習と同等の性能を達成 他タスクのアノテーション流用によるモデルの高精度化が期待できるように
  • 20. 参考文献 ©2022 ARISE analytics Reserved. 19 【本発表の対象】 論文:https://arxiv.org/pdf/2201.08984v2.pdf 【補足資料】 PJページ:https://hbzju.github.io/pico/ スライド:https://iclr.cc/media/iclr-2022/Slides/6038.pdf 発表動画:https://iclr.cc/virtual/2022/poster/6038 【その他参考文献】 Learning from Partial Labels(JMLR 2011) Understanding Contrastive Representation Learning through Alignment and Uniformity on the Hypersphere (ICML 2020) Fine-grained Visual-textual Representation Learning(CVPR2020) Momentum Contrast for Unsupervised Visual Representation Learning(CVPR 2020) A Simple Framework for Contrastive Learning of Visual Representations(ICML 2020) Advancing Self-Supervised and Semi-Supervised Learning with SimCLR [CVPR2020読み会@オンライン(前編)]Momentum Contrast for Unsupervised Visual Representation Learning CIFAR-10 and CIFAR-100 dataset
  • 21. Best Partner for innovation, Best Creator for the future.