SlideShare ist ein Scribd-Unternehmen logo
1 von 23
1
DEEP LEARNING JP
[DL Papers]
http://deeplearning.jp/
Adversarial Representation Active Learning
Keno Harada, UT, B3
書誌情報
● 著者情報:
○ Ali Mottaghi, Serena Yeung
○ Stanford University
○ 第一著者はPhD2年目?, 第二著者はCS231nで講師もしていたSerenaさん(2018年にFei-Fei Liの
labでPhD, 今はStanfordでAssistant Professor)
○ この二人はArtificial Intelligence in Healthcare (http://web.stanford.edu/class/biods220/) という授業を行うみ
たい(授業のslideは公開されている)
● 論文リンク: https://arxiv.org/pdf/1912.09720.pdf
● 一言で:
○ Variational adversarial acquisition functionをサンプリング関数とし, 半教師あり学習をクラス分類器の学習に組
み込んだActive Learning手法を提案, 画像分類のタスクで既存のactive learning手法の性能を上回った
目次
● Active Learning
● 提案手法
○ Variational adversarial acquisition function
○ Semi-supervised framework for incorporating unlabeled data
○ Co-training for full model
● 全体のアルゴリズム
● 実験
○ 実験結果
● 所感
Active Learning
● どのようなデータからモデルが学ぶべきかを選択できるという設定で, より少
ないラベル付き学習データで高精度を出せるようにする手法
○ ラベルなしデータの中でラベル付けされるべきデータを選び, ラベル付け後学習データへ加えて
いく
● 全てのデータへのラベル付けがコスト面などから難しい場面など
Image from
http://burrsettles.com/pub/settles.a
ctivelearning.pdf
Active Learning
3つの枠組み
● Membership Query Synthesis
○ 生成したデータにラベル付けを行う
● Stream-Based Selective Sampling
○ ある基準を超えたものをラベル付けして加えていく
● Pool-Based Sampling
○ ラベル付けされていないデータ全体から, ある基準でラベル付け優先度をつけ, 優先度の高いも
のをラベル付けしていく
○ よくある設定
Active Learning
基準の計算 (Query strategy framework)
● Uncertainty Sampling
○ ラベルの予測分布のエントロピーから算出など
● Query-By-Committe
○ いくつかモデルを用意して予測が食い違ったものを選ぶ
● Expected Model Change
○ 勾配をもとに, どれがモデルに変化をもたらしそうかを選ぶ
● Expected Error Reduction
○ 残りのunlabeledデータでのエラー率が低くなるようなものを選ぶ
● Variance Reduction
○ 出力の分散を最小化するようなものを選ぶ
● Density-Weighted Methods
○ 何らかの情報量の基準に, 他のデータとの類似性を掛け合わせた値で選ぶ
提案手法
Adversarial Representation Active Learning
提案手法
Adversarial Representation Active Learning
● Variational adversarial acquisition functionをサンプリング関数とし, 半教師あり
学習をクラス分類器の学習に組み込んだActive Learning手法を提案
○ acquisition functionと半教師あり学習で用いるconditional GANはencoder, decoderを共有してお
り, それぞれのモデルの向上が相乗効果的に効いてくる(という主張)
○ ラベル無しデータの活用とco-trainが強みだと言っている
● 3つのKey要素
○ Variational adversarial acquisition function
○ Semi-supervised framework for incorporating unlabeled data
○ Co-training for full model
Variational adversarial acquisition function
Variational adversarial acquisition function
Encoder and Decoder(Generator) Loss
● trd_VAAL: β-VAE Loss
● adv_VAAL: VAEのEncoderはラベルあり・無しデータを同じような確率分布に
なるように潜在空間に落とし込もうとする
Variational adversarial acquisition function
Discriminator (Sampler) Loss
● S(z): 潜在変数がラベルありデータから得られているとする確信度を表す
○ この値が低いとラベル無しデータであると考えられ,ラベル有りデータ空間とは異なるものと
みなす
○ ラベル付けする際の基準として用いる
● S_VAAL: Discriminatorは与えられた潜在変数がラベルありデータから得られた
ものなのかかラベル無しデータから得られたものなのかを判別する
Semi-supervised framework for incorporating unlabeled data
● Decoderを半教師ありのGeneratorとして活用
○ ラベル無しのデータ構造についての情報を目的のクラス分類器がより得られる
■ Generatorによるデータ拡張の効果
● BiGAN構造を採用
○ https://arxiv.org/pdf/1605.09782.pdf
Semi-supervised framework for incorporating unlabeled data
ロス関数
● C(x)が精度を上げる対象のクラス分類器
● Discriminatorとネットワーク構造を共有している部分があり,クラス分類器は
より良い表現を獲得(?)
Co-training of full model
● Acquisition functionとconditional GANのEncoder, Decoder(Generator)はネット
ワーク共通
全体のアルゴリズム
新たなラベル付け
EncoderとDecoderの学習
Discriminatorの学習
Samplerの学習
実験
● MNIST, SVHN, CIFAR-10, CelebA, ImageNetで実験
● 比較手法
○ Max-Entropy method
○ Bayesian Active Learning by Disagreement (BALD)
○ Variational Adversarial Active Learning (VAAL)
■ VAALのクラス分類器はラベル付けされたデータのみで学習
○ Random
○ Full training of our model
■ 全部にラベルを付けて学習
■ upper bound
実験結果
実験結果
実験結果
どの要素が効いているのか?
● No active learning
○ samplerとEncoderへのadversarial部分を削除,randomにラベル付けを行う
● No encoder
○ Encoderを削除,Bayesian Active Learning by Disagreementをもとにラベル付けを行う
● No co-training
○ Variational Adversarial Active Learning(VAAL)をもとにラベル付け,事前に訓練済みのGANで画
像生成しデータ拡張
● Random
○ ランダムにラベル付け,ラベル有りデータでクラス分類器を学習
実験結果
どの要素が効いているのか?
半教師あり学習の効果
active learningの効果
Co-trainingの効果
実験結果
どの要素が効いているのか?
ラベル有り・無しで
の表現学習の効果
所感
● SegmenationやDetectionのタスクでもうまくいくのか?
● Co-trainingでうまく行く理由が未だによくわからない
○ ネットワーク構造一緒にすれば一般的にうまくいくものなのか?
○ multi-task learning?
● Active learningの欠点って何だろう?
○ チューニング大変そう
○ 別のモデルで得られたラベルデータセットで学習し直すと精度下がる事例があるらしい
● 強化学習でのダイナミクスモデルの効率的な学習との共通点はあるか?
Class conditionalの設定に合わせたvariational
acquisition functionのロス

Weitere ähnliche Inhalte

Mehr von Deep Learning JP

【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place RecognitionDeep Learning JP
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?Deep Learning JP
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究についてDeep Learning JP
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )Deep Learning JP
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...Deep Learning JP
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"Deep Learning JP
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "Deep Learning JP
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat ModelsDeep Learning JP
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"Deep Learning JP
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...Deep Learning JP
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...Deep Learning JP
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...Deep Learning JP
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...Deep Learning JP
 
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...Deep Learning JP
 
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...Deep Learning JP
 
【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデルDeep Learning JP
 
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...Deep Learning JP
 
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...Deep Learning JP
 
【DL輪読会】大量API・ツールの扱いに特化したLLM
【DL輪読会】大量API・ツールの扱いに特化したLLM【DL輪読会】大量API・ツールの扱いに特化したLLM
【DL輪読会】大量API・ツールの扱いに特化したLLMDeep Learning JP
 
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】DINOv2: Learning Robust Visual Features without SupervisionDeep Learning JP
 

Mehr von Deep Learning JP (20)

【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
 
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
 
【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル
 
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
 
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
 
【DL輪読会】大量API・ツールの扱いに特化したLLM
【DL輪読会】大量API・ツールの扱いに特化したLLM【DL輪読会】大量API・ツールの扱いに特化したLLM
【DL輪読会】大量API・ツールの扱いに特化したLLM
 
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
 

Kürzlich hochgeladen

Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Hiroshi Tomioka
 

Kürzlich hochgeladen (11)

Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 

[DL輪読会]Adversarial Representation Active Learning

  • 1. 1 DEEP LEARNING JP [DL Papers] http://deeplearning.jp/ Adversarial Representation Active Learning Keno Harada, UT, B3
  • 2. 書誌情報 ● 著者情報: ○ Ali Mottaghi, Serena Yeung ○ Stanford University ○ 第一著者はPhD2年目?, 第二著者はCS231nで講師もしていたSerenaさん(2018年にFei-Fei Liの labでPhD, 今はStanfordでAssistant Professor) ○ この二人はArtificial Intelligence in Healthcare (http://web.stanford.edu/class/biods220/) という授業を行うみ たい(授業のslideは公開されている) ● 論文リンク: https://arxiv.org/pdf/1912.09720.pdf ● 一言で: ○ Variational adversarial acquisition functionをサンプリング関数とし, 半教師あり学習をクラス分類器の学習に組 み込んだActive Learning手法を提案, 画像分類のタスクで既存のactive learning手法の性能を上回った
  • 3. 目次 ● Active Learning ● 提案手法 ○ Variational adversarial acquisition function ○ Semi-supervised framework for incorporating unlabeled data ○ Co-training for full model ● 全体のアルゴリズム ● 実験 ○ 実験結果 ● 所感
  • 4. Active Learning ● どのようなデータからモデルが学ぶべきかを選択できるという設定で, より少 ないラベル付き学習データで高精度を出せるようにする手法 ○ ラベルなしデータの中でラベル付けされるべきデータを選び, ラベル付け後学習データへ加えて いく ● 全てのデータへのラベル付けがコスト面などから難しい場面など Image from http://burrsettles.com/pub/settles.a ctivelearning.pdf
  • 5. Active Learning 3つの枠組み ● Membership Query Synthesis ○ 生成したデータにラベル付けを行う ● Stream-Based Selective Sampling ○ ある基準を超えたものをラベル付けして加えていく ● Pool-Based Sampling ○ ラベル付けされていないデータ全体から, ある基準でラベル付け優先度をつけ, 優先度の高いも のをラベル付けしていく ○ よくある設定
  • 6. Active Learning 基準の計算 (Query strategy framework) ● Uncertainty Sampling ○ ラベルの予測分布のエントロピーから算出など ● Query-By-Committe ○ いくつかモデルを用意して予測が食い違ったものを選ぶ ● Expected Model Change ○ 勾配をもとに, どれがモデルに変化をもたらしそうかを選ぶ ● Expected Error Reduction ○ 残りのunlabeledデータでのエラー率が低くなるようなものを選ぶ ● Variance Reduction ○ 出力の分散を最小化するようなものを選ぶ ● Density-Weighted Methods ○ 何らかの情報量の基準に, 他のデータとの類似性を掛け合わせた値で選ぶ
  • 8. 提案手法 Adversarial Representation Active Learning ● Variational adversarial acquisition functionをサンプリング関数とし, 半教師あり 学習をクラス分類器の学習に組み込んだActive Learning手法を提案 ○ acquisition functionと半教師あり学習で用いるconditional GANはencoder, decoderを共有してお り, それぞれのモデルの向上が相乗効果的に効いてくる(という主張) ○ ラベル無しデータの活用とco-trainが強みだと言っている ● 3つのKey要素 ○ Variational adversarial acquisition function ○ Semi-supervised framework for incorporating unlabeled data ○ Co-training for full model
  • 10. Variational adversarial acquisition function Encoder and Decoder(Generator) Loss ● trd_VAAL: β-VAE Loss ● adv_VAAL: VAEのEncoderはラベルあり・無しデータを同じような確率分布に なるように潜在空間に落とし込もうとする
  • 11. Variational adversarial acquisition function Discriminator (Sampler) Loss ● S(z): 潜在変数がラベルありデータから得られているとする確信度を表す ○ この値が低いとラベル無しデータであると考えられ,ラベル有りデータ空間とは異なるものと みなす ○ ラベル付けする際の基準として用いる ● S_VAAL: Discriminatorは与えられた潜在変数がラベルありデータから得られた ものなのかかラベル無しデータから得られたものなのかを判別する
  • 12. Semi-supervised framework for incorporating unlabeled data ● Decoderを半教師ありのGeneratorとして活用 ○ ラベル無しのデータ構造についての情報を目的のクラス分類器がより得られる ■ Generatorによるデータ拡張の効果 ● BiGAN構造を採用 ○ https://arxiv.org/pdf/1605.09782.pdf
  • 13. Semi-supervised framework for incorporating unlabeled data ロス関数 ● C(x)が精度を上げる対象のクラス分類器 ● Discriminatorとネットワーク構造を共有している部分があり,クラス分類器は より良い表現を獲得(?)
  • 14. Co-training of full model ● Acquisition functionとconditional GANのEncoder, Decoder(Generator)はネット ワーク共通
  • 16. 実験 ● MNIST, SVHN, CIFAR-10, CelebA, ImageNetで実験 ● 比較手法 ○ Max-Entropy method ○ Bayesian Active Learning by Disagreement (BALD) ○ Variational Adversarial Active Learning (VAAL) ■ VAALのクラス分類器はラベル付けされたデータのみで学習 ○ Random ○ Full training of our model ■ 全部にラベルを付けて学習 ■ upper bound
  • 19. 実験結果 どの要素が効いているのか? ● No active learning ○ samplerとEncoderへのadversarial部分を削除,randomにラベル付けを行う ● No encoder ○ Encoderを削除,Bayesian Active Learning by Disagreementをもとにラベル付けを行う ● No co-training ○ Variational Adversarial Active Learning(VAAL)をもとにラベル付け,事前に訓練済みのGANで画 像生成しデータ拡張 ● Random ○ ランダムにラベル付け,ラベル有りデータでクラス分類器を学習
  • 22. 所感 ● SegmenationやDetectionのタスクでもうまくいくのか? ● Co-trainingでうまく行く理由が未だによくわからない ○ ネットワーク構造一緒にすれば一般的にうまくいくものなのか? ○ multi-task learning? ● Active learningの欠点って何だろう? ○ チューニング大変そう ○ 別のモデルで得られたラベルデータセットで学習し直すと精度下がる事例があるらしい ● 強化学習でのダイナミクスモデルの効率的な学習との共通点はあるか?