SlideShare a Scribd company logo
Suche senden
Hochladen
【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx
Melden
Teilen
ARISE analytics
ARISE analytics
Folgen
•
0 gefällt mir
•
494 views
1
von
21
【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx
•
0 gefällt mir
•
494 views
Melden
Teilen
Jetzt herunterladen
Downloaden Sie, um offline zu lesen
Technologie
社内で行った「International Conference on Learning Represantation (ICLR)2022読み会」でまとめた資料です。
Mehr lesen
ARISE analytics
ARISE analytics
Folgen
Recomendados
Depth Estimation論文紹介 von
Depth Estimation論文紹介
Keio Robotics Association
2.9K views
•
14 Folien
20190619 オートエンコーダーと異常検知入門 von
20190619 オートエンコーダーと異常検知入門
Kazuki Motohashi
7.6K views
•
30 Folien
時系列予測にTransformerを使うのは有効か? von
時系列予測にTransformerを使うのは有効か?
Fumihiko Takahashi
6.7K views
•
29 Folien
【論文調査】XAI技術の効能を ユーザ実験で評価する研究 von
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
Satoshi Hara
5.1K views
•
39 Folien
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem... von
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
3.4K views
•
21 Folien
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜 von
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII
3.8K views
•
40 Folien
Más contenido relacionado
Was ist angesagt?
これからの Vision & Language ~ Acadexit した4つの理由 von
これからの Vision & Language ~ Acadexit した4つの理由
Yoshitaka Ushiku
6.5K views
•
78 Folien
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法 von
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
3.8K views
•
48 Folien
Deep Learning による視覚×言語融合の最前線 von
Deep Learning による視覚×言語融合の最前線
Yoshitaka Ushiku
32.4K views
•
71 Folien
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演) von
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
Shota Imai
2.3K views
•
35 Folien
[DL輪読会]ドメイン転移と不変表現に関するサーベイ von
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
6.8K views
•
54 Folien
“機械学習の説明”の信頼性 von
“機械学習の説明”の信頼性
Satoshi Hara
4.3K views
•
29 Folien
Was ist angesagt?
(20)
これからの Vision & Language ~ Acadexit した4つの理由 von Yoshitaka Ushiku
これからの Vision & Language ~ Acadexit した4つの理由
Yoshitaka Ushiku
•
6.5K views
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法 von SSII
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
•
3.8K views
Deep Learning による視覚×言語融合の最前線 von Yoshitaka Ushiku
Deep Learning による視覚×言語融合の最前線
Yoshitaka Ushiku
•
32.4K views
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演) von Shota Imai
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
Shota Imai
•
2.3K views
[DL輪読会]ドメイン転移と不変表現に関するサーベイ von Deep Learning JP
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
•
6.8K views
“機械学習の説明”の信頼性 von Satoshi Hara
“機械学習の説明”の信頼性
Satoshi Hara
•
4.3K views
機械学習モデルの判断根拠の説明 von Satoshi Hara
機械学習モデルの判断根拠の説明
Satoshi Hara
•
97.9K views
テーブル・テキスト・画像の反実仮想説明 von tmtm otm
テーブル・テキスト・画像の反実仮想説明
tmtm otm
•
351 views
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018) von Masakazu Iwamura
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
Masakazu Iwamura
•
13.1K views
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute... von SSII
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII
•
2.8K views
物体検出の歴史(R-CNNからSSD・YOLOまで) von HironoriKanazawa
物体検出の歴史(R-CNNからSSD・YOLOまで)
HironoriKanazawa
•
1.6K views
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc) von Deep Learning JP
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
Deep Learning JP
•
3.7K views
全力解説!Transformer von Arithmer Inc.
全力解説!Transformer
Arithmer Inc.
•
9.5K views
機械学習を用いた異常検知入門 von michiaki ito
機械学習を用いた異常検知入門
michiaki ito
•
38.4K views
[DL輪読会]相互情報量最大化による表現学習 von Deep Learning JP
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
•
7.6K views
BlackBox モデルの説明性・解釈性技術の実装 von Deep Learning Lab(ディープラーニング・ラボ)
BlackBox モデルの説明性・解釈性技術の実装
Deep Learning Lab(ディープラーニング・ラボ)
•
22.4K views
DNNの曖昧性に関する研究動向 von Naoki Matsunaga
DNNの曖昧性に関する研究動向
Naoki Matsunaga
•
380 views
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集 〜 精度向上のための仕組み・倫理や社会性バイアス 〜 von SSII
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集 〜 精度向上のための仕組み・倫理や社会性バイアス 〜
SSII
•
1.9K views
深層生成モデルと世界モデル von Masahiro Suzuki
深層生成モデルと世界モデル
Masahiro Suzuki
•
16.6K views
クラシックな機械学習の入門 11.評価方法 von Hiroshi Nakagawa
クラシックな機械学習の入門 11.評価方法
Hiroshi Nakagawa
•
19.6K views
Más de ARISE analytics
【論文レベルで理解しよう!】 欠測値処理編 von
【論文レベルで理解しよう!】 欠測値処理編
ARISE analytics
83 views
•
19 Folien
【論文レベルで理解しよう!】 大規模言語モデル(LLM)編 von
【論文レベルで理解しよう!】 大規模言語モデル(LLM)編
ARISE analytics
112 views
•
20 Folien
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho... von
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho...
ARISE analytics
183 views
•
32 Folien
Hierarchical Metadata-Aware Document Categorization under Weak Supervision (... von
Hierarchical Metadata-Aware Document Categorization under Weak Supervision (...
ARISE analytics
122 views
•
24 Folien
教師なしGNNによるIoTデバイスの異常通信検知の検討 von
教師なしGNNによるIoTデバイスの異常通信検知の検討
ARISE analytics
1K views
•
21 Folien
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri... von
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...
ARISE analytics
574 views
•
18 Folien
Más de ARISE analytics
(18)
【論文レベルで理解しよう!】 欠測値処理編 von ARISE analytics
【論文レベルで理解しよう!】 欠測値処理編
ARISE analytics
•
83 views
【論文レベルで理解しよう!】 大規模言語モデル(LLM)編 von ARISE analytics
【論文レベルで理解しよう!】 大規模言語モデル(LLM)編
ARISE analytics
•
112 views
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho... von ARISE analytics
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho...
ARISE analytics
•
183 views
Hierarchical Metadata-Aware Document Categorization under Weak Supervision (... von ARISE analytics
Hierarchical Metadata-Aware Document Categorization under Weak Supervision (...
ARISE analytics
•
122 views
教師なしGNNによるIoTデバイスの異常通信検知の検討 von ARISE analytics
教師なしGNNによるIoTデバイスの異常通信検知の検討
ARISE analytics
•
1K views
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri... von ARISE analytics
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...
ARISE analytics
•
574 views
【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D... von ARISE analytics
【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D...
ARISE analytics
•
464 views
【論文読み会】Autoregressive Diffusion Models.pptx von ARISE analytics
【論文読み会】Autoregressive Diffusion Models.pptx
ARISE analytics
•
5.3K views
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx von ARISE analytics
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx
ARISE analytics
•
552 views
【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice von ARISE analytics
【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice
ARISE analytics
•
698 views
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3) von ARISE analytics
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
ARISE analytics
•
2.7K views
【論文読み会】On the Expressivity of Markov Reward von ARISE analytics
【論文読み会】On the Expressivity of Markov Reward
ARISE analytics
•
583 views
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive... von ARISE analytics
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...
ARISE analytics
•
698 views
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds von ARISE analytics
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
ARISE analytics
•
699 views
Counterfaual Machine Learning(CFML)のサーベイ von ARISE analytics
Counterfaual Machine Learning(CFML)のサーベイ
ARISE analytics
•
29.7K views
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features von ARISE analytics
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
ARISE analytics
•
7.8K views
【論文読み会】Self-Attention Generative Adversarial Networks von ARISE analytics
【論文読み会】Self-Attention Generative Adversarial Networks
ARISE analytics
•
5.3K views
【論文読み会】Universal Language Model Fine-tuning for Text Classification von ARISE analytics
【論文読み会】Universal Language Model Fine-tuning for Text Classification
ARISE analytics
•
1.9K views
Último
さくらのひやおろし2023 von
さくらのひやおろし2023
法林浩之
83 views
•
58 Folien
SSH応用編_20231129.pdf von
SSH応用編_20231129.pdf
icebreaker4
30 views
•
13 Folien
The Things Stack説明資料 by The Things Industries von
The Things Stack説明資料 by The Things Industries
CRI Japan, Inc.
19 views
•
29 Folien
SNMPセキュリティ超入門 von
SNMPセキュリティ超入門
mkoda
31 views
•
15 Folien
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20... von
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
NTT DATA Technology & Innovation
13 views
•
42 Folien
pgvectorを使ってChatGPTとPostgreSQLを連携してみよう!(PostgreSQL Conference Japan 2023 発表資料) von
pgvectorを使ってChatGPTとPostgreSQLを連携してみよう!(PostgreSQL Conference Japan 2023 発表資料)
NTT DATA Technology & Innovation
185 views
•
63 Folien
Último
(12)
さくらのひやおろし2023 von 法林浩之
さくらのひやおろし2023
法林浩之
•
83 views
SSH応用編_20231129.pdf von icebreaker4
SSH応用編_20231129.pdf
icebreaker4
•
30 views
The Things Stack説明資料 by The Things Industries von CRI Japan, Inc.
The Things Stack説明資料 by The Things Industries
CRI Japan, Inc.
•
19 views
SNMPセキュリティ超入門 von mkoda
SNMPセキュリティ超入門
mkoda
•
31 views
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20... von NTT DATA Technology & Innovation
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
NTT DATA Technology & Innovation
•
13 views
pgvectorを使ってChatGPTとPostgreSQLを連携してみよう!(PostgreSQL Conference Japan 2023 発表資料) von NTT DATA Technology & Innovation
pgvectorを使ってChatGPTとPostgreSQLを連携してみよう!(PostgreSQL Conference Japan 2023 発表資料)
NTT DATA Technology & Innovation
•
185 views
「概念モデリング自動化に向けた第一歩」 ~ ChatGPT・Open AI 活用による開発対象のモデル化 von Knowledge & Experience
「概念モデリング自動化に向けた第一歩」 ~ ChatGPT・Open AI 活用による開発対象のモデル化
Knowledge & Experience
•
8 views
Windows 11 information that can be used at the development site von Atomu Hidaka
Windows 11 information that can be used at the development site
Atomu Hidaka
•
21 views
JJUG CCC.pptx von Kanta Sasaki
JJUG CCC.pptx
Kanta Sasaki
•
6 views
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料) von NTT DATA Technology & Innovation
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)
NTT DATA Technology & Innovation
•
10 views
01Booster Studio ご紹介資料 von ssusere7a2172
01Booster Studio ご紹介資料
ssusere7a2172
•
220 views
Web3 Career_クレデン資料 .pdf von nanamatsuo
Web3 Career_クレデン資料 .pdf
nanamatsuo
•
8 views
【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx
1.
PiCO: Contrastive Label Disambiguation
for Partial Label Learning ©2022 ARISE analytics Reserved. ARISE analytics 近藤 真暉
2.
発表文献 ©2022 ARISE analytics
Reserved. 1 【本発表の対象】 論文:https://arxiv.org/pdf/2201.08984v2.pdf 特に注釈のない画像は、上記からの引用です。 【補足資料】 PJページ:https://hbzju.github.io/pico/ スライド:https://iclr.cc/media/iclr-2022/Slides/6038.pdf 発表動画:https://iclr.cc/virtual/2022/poster/6038
3.
論文概要 ©2022 ARISE analytics
Reserved. 2 画像引用:https://dognoie.com/blog/dog-picturebook/alaskaanmalamute-siberianhusky/ シベリアンハスキー(左)とアラスカンマラミュート(右)が曖昧でもうまく分 離できる手法を提案 → ICLR 2022 Outstanding Paper Honorable Mentions(優 秀賞) 主な貢献 ① Partial Label Learning への対照学習の導入 ② Partial Label Learning における性能向上とより難しいタスクへの挑戦 ③ PiCOの理論的な解析
4.
Partial Label Learning(PLL:部分ラベル学習) ©2022
ARISE analytics Reserved. 3 複数のラベル候補(あいまいなラベル)を用いて行われる学習 GT∈ラベル候補Yi であることを前提とし、真のラベルを特定することが目的 アノテーションコストが低いため、応用が効きやすい ラベル候補Yi:Hasky/Malamute/Samoyed GT:Malamute Supervised Learning Partial Label Learning
5.
ラベルの曖昧さ問題の例 ©2022 ARISE analytics
Reserved. 4 画像引用:Learning from Partial Labels(JMLR 2011) 別目的からのアノテーション流用においてもラベルの曖昧さ問題は発生。修正 はコスト大 → PLL問題として解くことで、アノテーション流用を容易にしコストを下げる ことができる 字幕・キャプションを用いて人物ラベル付与し たい場合、 どちらのラベルを付与すればよいか?
6.
PiCOの全体像 ©2022 ARISE analytics
Reserved. 5 MoCo(CVPR2020)をベースに、ふたつの工夫を導入 ① Positive Sample Selection ② Prototype-based Label Disambiguation ←① Positive Sample Selection ←② Prototype-based Label Disambiguation
7.
MoCo(CVPR 2020) ©2022 ARISE
analytics Reserved. 6 詳細は論文Momentum Contrast for Unsupervised Visual Representation Learning(CVPR 2020)参照 過去の入力 (Negative sample) ↑ 同じ犬でもnegativeと扱う (PiCOはここを解決) momentum encoder(t-1) momentum encoder(t-2) momentum encoder(t-3) positive sample Embedding pool Keyの鮮度を保つため、 1iter終わったら、古いk を捨てて新しいkを追加 positiveは近くなるように negativeは遠くなるように Lossを算出してEncoderを更新 重み更新 encoderに 近くなるように 若干重み更新 momentum encoder の重み更新式 ↑encoder の重み ↑ momentum encoder の重み mは0.999など非常に大きな値が用いられ、急激な重み変化を抑制 重み更新なし
8.
① Positive Sample
Selection ©2022 ARISE analytics Reserved. 7 Positive Sampleを増やすため、Momentum Embeddingに対しラベル予測を行 い再利用。対照学習を用いた埋め込み表現の学習が効率よく行える ただし、このままではPLL問題が解けずラベルがあいまいなまま → ②Prototype-based Label Disambiguation で対処 P(x) : positive set A(x) : Embedding pool(Momentum Embeddings) 1. Queryのラベル予測を行う 2. Embedding poolから同じラベルのmomentum Embeddingを取り出す 3. 取り出したmomentum EmbeddingをPositive Pairとして扱う 4. Contrastive Loss と Classifier Loss を算出 5. EncoderとMomentum Encoderの重みを更新 犬 猫 猫 犬だけ取り 出し 犬or猫分類
9.
② Prototype-based Label
Disambiguation ©2022 ARISE analytics Reserved. 8 一部、論文の図と発表スライドの図を組み合わせて加工 Prototype Embedding Vector を導入し、クラスタリングによってラベル割り当 て Prototype Embedding Vectorは都度更新されるため、Contrasitive Learningによ る埋め込み表現が反映される 1. Queryのラベル予測モデルの学習に用いる疑似ラ ベル(Disambiguated Labels)を一様分布で初期 化(※one-hotではなく連続値を用いる) 2. Queryの埋め込み特徴を取得 3. 最も近いPrototype Embeddig Vector u_jを探索 4. 移動平均法を用いてPrototype Embedding Vector u_jを更新 5. Prototype Embedding Vector u_j に対応するクラ スが大きくなるよう、それ以外は小さくなるよう に疑似ラベルを更新 ※Φは0~1の範囲で指定する疑似ラベルの更新量 を調整するためのモメンタム係数(超パラメ タ)
10.
2つの改良による効果 ©2022 ARISE analytics
Reserved. 9 一見関係なさそうな①②の改良 お互いにうまく協調して学習できる ①によるContrasitive Learningで埋め込み空間を学習 ↓ 埋め込み空間が適切に学習されることで、うまくクラスタリングできるように なる ↓ クラスタリング効果が発揮されると、②Prototype Embedding Vectorがきれい に収束 ↓ Prototype Embedding Vectorが適切に設定されると、①のPositive Sample Selectionで正しいサンプルを選択できる ↓ これを繰り返すことで、相互的に補完しあい学習プロセス全体が収束 PiCOは教師ありと教師なしクラスタリングのハイブリッド 学習初期は学習初期はラベル候補の信頼度が高い 学習が進むにつれてプロトタイプの信頼度が高くなる 移動平均方式で擬似ターゲットを更新することで、スムーズに 改善される
11.
PiCOの具体的な処理フロー ©2022 ARISE analytics
Reserved. 10 ミニバッチ取 得 ミニバッチからサンプル取得し、Augmentation →MLPを通し埋め込み特徴を取得 取得した埋め込み特徴とキュー(Embedding Pool)の埋め込み特徴をまと める ミニバッチから取得したサンプルに対し、queryと同じAugumentationを実施してからクラス分類(Bqと は別) クラス分類の結果に応じて、Prototype Embedding Vectorを移動平均法で更新 まとめた埋め込み特徴から同じクラスのものを取り出し、Positive Sampleとして扱う Prototype Embedding Vector からクエリに最も近いものを選択し、One-hot-vectorで表現 queryに対応する疑似ラベルを更新 : s_iの初期値は1/(ラベル数)で初期化された一様分布 Contrastive Lossを算出 Classfication Lossを算出 ふたつのLossをもとに、Encoderの重み を更新 移動平均法に基づき、Momentum Encoderの重みを更新 Momentum Encoderで取得した埋め込み特徴と分類結果をキューに追加し、古い埋め込み特徴を捨 てる
12.
実験設定 ©2022 ARISE analytics
Reserved. 11 画像引用:CIFAR-10 and CIFAR-100 dataset CIFAR-10/100で評価 正しいラベル+ダミーのラベルをランダムに選択してラベル候補を構築(PLL 問題にする) 正しいラベル GT = Airplane ↓ ラベル候補Yi = [Airplane, Bird, Deer, Dog, Horse] ダミーのラベル数はPartial Rate qで決定 CIFAR-10 : q ∈ {0.1, 0.3, 0.5} CIFAR-100 : q ∈ {0.01, 0.05, 0.1}
13.
実験結果 – 定量評価 ©2022
ARISE analytics Reserved. 12 Supervised(教師あり)とほぼ同等の性能を確保
14.
実験結果 – 定性評価 ©2022
ARISE analytics Reserved. 13 t-SNEで可視化。(a)Uniform featuresは一様分布で初期化された疑似ラベルを 用いたものであり、うまく分離できていない。先行研究で最も良かった (b)PRODEN featuresではdog-cat-frogやairplane-shipが混ざっている。(c)PiCO featuresはきれいに分離されている。高品質な埋め込み表現を学習できている ことを示す
15.
実験結果 – 改良効果分析 ©2022
ARISE analytics Reserved. 14 今回の改良のうち、どの改良が寄与したかを分析 ②Prototype-based Label Disambiguation の工夫よりも、① Positive Sample Selection(対照学習 L_cont)の有無が性能向上に寄与 モメンタム係数Φ=0のときの②疑似ラベル更新については、Softmaxによるク ラス確率またはOne-hotで更新したほうが効果的・モメンタム係数は0.9が良い
16.
実験結果 – より難しい問題設定では? ©2022
ARISE analytics Reserved. 15 画像引用:Fine-grained Visual-textual Representation Learning(CVPR2020), CIFAR-10 and CIFAR-100 dataset CUB-200/CIFAR-100-Hでも実験 他手法と比べ最も良い性能が得られることを確認 CUB-200:200種類の鳥画像 CIFAR-100-H :CIFAR-100と同じだが、同じ superclassだけで部分ラベルを構築
17.
なぜPiCOはPPL問題をうまく解くことができるのか? ©2022 ARISE analytics
Reserved. 16 画像引用:Understanding Contrastive Representation Learning through Alignment and Uniformity on the Hypersphere (ICML 2020) 対照学習のクラスタリングへの影響から分析を実施 PiCOで用いているContrasitive Lossの損失関数は (a)alignment、(b)uniformity の性質を持つ (a)alignment 似たサンプルからは似た特徴を 生成 (クラス内分散を最小化) (b)uniformity 超球面上で一様性を持つ (クラス間分散を最大化)
18.
なぜPiCOはPPL問題をうまく解くことができるのか? ©2022 ARISE analytics
Reserved. 17 (a)alignment に注目して解析した結果、 「(a)を最小化すると、式(10)の尤度の下限も最大化する」という定理を発見(証 明省略) 式(10)の尤度の下限が最大化されると、クラス内密度が高くなる(平均ベクト ルのノルムが小さくなる)効果がある → PiCOはコンパクトかつ良い表現を獲得 できる ノルム大きい (密度薄い) ノルム小さい (密度高い)
19.
まとめ ©2022 ARISE analytics
Reserved. 18 画像引用:Learning from Partial Labels(JMLR 2011) PiCOの主な貢献 ① Partial Label Learning への対照学習の導入 ② Partial Label Learning における性能向上とより難しいタスクへの挑戦 ③ PiCOの理論的な解析 → 教師あり学習と同等の性能を達成 他タスクのアノテーション流用によるモデルの高精度化が期待できるように
20.
参考文献 ©2022 ARISE analytics
Reserved. 19 【本発表の対象】 論文:https://arxiv.org/pdf/2201.08984v2.pdf 【補足資料】 PJページ:https://hbzju.github.io/pico/ スライド:https://iclr.cc/media/iclr-2022/Slides/6038.pdf 発表動画:https://iclr.cc/virtual/2022/poster/6038 【その他参考文献】 Learning from Partial Labels(JMLR 2011) Understanding Contrastive Representation Learning through Alignment and Uniformity on the Hypersphere (ICML 2020) Fine-grained Visual-textual Representation Learning(CVPR2020) Momentum Contrast for Unsupervised Visual Representation Learning(CVPR 2020) A Simple Framework for Contrastive Learning of Visual Representations(ICML 2020) Advancing Self-Supervised and Semi-Supervised Learning with SimCLR [CVPR2020読み会@オンライン(前編)]Momentum Contrast for Unsupervised Visual Representation Learning CIFAR-10 and CIFAR-100 dataset
21.
Best Partner for
innovation, Best Creator for the future.