Suche senden
Hochladen
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
•
12 gefällt mir
•
3,842 views
Akisato Kimura
Folgen
CVPR2016で発表された,特徴量学習とクロスモーダル転移に関する研究についてまとめてみました.
Weniger lesen
Mehr lesen
Technologie
Melden
Teilen
Melden
Teilen
1 von 41
Jetzt herunterladen
Downloaden Sie, um offline zu lesen
Empfohlen
【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformer
cvpaper. challenge
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
Keigo Nishida
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
Eiji Uchibe
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
backbone としての timm 入門
backbone としての timm 入門
Takuji Tahara
生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fields
cvpaper. challenge
Empfohlen
【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformer
cvpaper. challenge
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
Keigo Nishida
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
Eiji Uchibe
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
backbone としての timm 入門
backbone としての timm 入門
Takuji Tahara
生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fields
cvpaper. challenge
Triplet Loss 徹底解説
Triplet Loss 徹底解説
tancoro
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
ぱんいち すみもと
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
Sho Takase
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜
Jun Okumura
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
西岡 賢一郎
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
ぱんいち すみもと
深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
Deep Learning JP
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learning
Yusuke Uchida
全力解説!Transformer
全力解説!Transformer
Arithmer Inc.
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセット
Toru Tamaki
深層学習の数理
深層学習の数理
Taiji Suzuki
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
Deep Learning JP
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習
Preferred Networks
Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...
Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...
Yoshitaka Ushiku
Weitere ähnliche Inhalte
Was ist angesagt?
Triplet Loss 徹底解説
Triplet Loss 徹底解説
tancoro
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
ぱんいち すみもと
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
Sho Takase
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜
Jun Okumura
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
西岡 賢一郎
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
ぱんいち すみもと
深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
Deep Learning JP
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learning
Yusuke Uchida
全力解説!Transformer
全力解説!Transformer
Arithmer Inc.
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセット
Toru Tamaki
深層学習の数理
深層学習の数理
Taiji Suzuki
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
Deep Learning JP
Was ist angesagt?
(20)
Triplet Loss 徹底解説
Triplet Loss 徹底解説
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
深層生成モデルと世界モデル
深層生成モデルと世界モデル
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learning
全力解説!Transformer
全力解説!Transformer
変分ベイズ法の説明
変分ベイズ法の説明
動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセット
深層学習の数理
深層学習の数理
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
Ähnlich wie CVPR2016 reading - 特徴量学習とクロスモーダル転移について
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習
Preferred Networks
Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...
Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...
Yoshitaka Ushiku
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
cvpaper. challenge
CVPR 2018 速報
CVPR 2018 速報
cvpaper. challenge
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
nlab_utokyo
ae-3. ディープラーニングの基礎
ae-3. ディープラーニングの基礎
kunihikokaneko1
Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~
nlab_utokyo
2017-05-30_deepleaning-and-chainer
2017-05-30_deepleaning-and-chainer
Keisuke Umezawa
20150414seminar
20150414seminar
nlab_utokyo
東工大長谷川修研紹介 2011 (8月1日版)
東工大長谷川修研紹介 2011 (8月1日版)
SOINN Inc.
大規模画像認識とその周辺
大規模画像認識とその周辺
n_hidekey
リクルートにおける画像解析事例紹介
リクルートにおける画像解析事例紹介
Recruit Technologies
【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2
Hirokatsu Kataoka
画像認識と深層学習
画像認識と深層学習
Yusuke Uchida
DRIVE CHARTを支えるAI技術
DRIVE CHARTを支えるAI技術
Yusuke Uchida
20120623 cv勉強会 shirasy
20120623 cv勉強会 shirasy
Yoichi Shirasawa
NVIDIA Seminar ディープラーニングによる画像認識と応用事例
NVIDIA Seminar ディープラーニングによる画像認識と応用事例
Takayoshi Yamashita
Jubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組み
JubatusOfficial
DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用
Kazuki Fujikawa
Ähnlich wie CVPR2016 reading - 特徴量学習とクロスモーダル転移について
(20)
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習
Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...
Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
CVPR 2018 速報
CVPR 2018 速報
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
ae-3. ディープラーニングの基礎
ae-3. ディープラーニングの基礎
Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~
2017-05-30_deepleaning-and-chainer
2017-05-30_deepleaning-and-chainer
20150414seminar
20150414seminar
東工大長谷川修研紹介 2011 (8月1日版)
東工大長谷川修研紹介 2011 (8月1日版)
大規模画像認識とその周辺
大規模画像認識とその周辺
リクルートにおける画像解析事例紹介
リクルートにおける画像解析事例紹介
【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2
画像認識と深層学習
画像認識と深層学習
DRIVE CHARTを支えるAI技術
DRIVE CHARTを支えるAI技術
20120623 cv勉強会 shirasy
20120623 cv勉強会 shirasy
NVIDIA Seminar ディープラーニングによる画像認識と応用事例
NVIDIA Seminar ディープラーニングによる画像認識と応用事例
Jubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組み
DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用
Mehr von Akisato Kimura
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Akisato Kimura
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Akisato Kimura
多変量解析の一般化
多変量解析の一般化
Akisato Kimura
NIPS2015 reading - Learning visual biases from human imagination
NIPS2015 reading - Learning visual biases from human imagination
Akisato Kimura
CVPR2015 reading "Global refinement of random forest"
CVPR2015 reading "Global refinement of random forest"
Akisato Kimura
CVPR2015 reading "Understainding image virality" (in Japanese)
CVPR2015 reading "Understainding image virality" (in Japanese)
Akisato Kimura
Computational models of human visual attention driven by auditory cues
Computational models of human visual attention driven by auditory cues
Akisato Kimura
NIPS2014 reading - Top rank optimization in linear time
NIPS2014 reading - Top rank optimization in linear time
Akisato Kimura
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
Akisato Kimura
ICCV2013 reading: Learning to rank using privileged information
ICCV2013 reading: Learning to rank using privileged information
Akisato Kimura
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
Akisato Kimura
IJCAI13 Paper review: Large-scale spectral clustering on graphs
IJCAI13 Paper review: Large-scale spectral clustering on graphs
Akisato Kimura
関西CVPR勉強会 2012.10.28
関西CVPR勉強会 2012.10.28
Akisato Kimura
関西CVPR勉強会 2012.7.29
関西CVPR勉強会 2012.7.29
Akisato Kimura
ICWSM12 Brief Review
ICWSM12 Brief Review
Akisato Kimura
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
Akisato Kimura
関西CVPRML勉強会(特定物体認識) 2012.1.14
関西CVPRML勉強会(特定物体認識) 2012.1.14
Akisato Kimura
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
Akisato Kimura
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
Akisato Kimura
立命館大学 AMLコロキウム 2011.10.20
立命館大学 AMLコロキウム 2011.10.20
Akisato Kimura
Mehr von Akisato Kimura
(20)
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
多変量解析の一般化
多変量解析の一般化
NIPS2015 reading - Learning visual biases from human imagination
NIPS2015 reading - Learning visual biases from human imagination
CVPR2015 reading "Global refinement of random forest"
CVPR2015 reading "Global refinement of random forest"
CVPR2015 reading "Understainding image virality" (in Japanese)
CVPR2015 reading "Understainding image virality" (in Japanese)
Computational models of human visual attention driven by auditory cues
Computational models of human visual attention driven by auditory cues
NIPS2014 reading - Top rank optimization in linear time
NIPS2014 reading - Top rank optimization in linear time
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
ICCV2013 reading: Learning to rank using privileged information
ICCV2013 reading: Learning to rank using privileged information
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
IJCAI13 Paper review: Large-scale spectral clustering on graphs
IJCAI13 Paper review: Large-scale spectral clustering on graphs
関西CVPR勉強会 2012.10.28
関西CVPR勉強会 2012.10.28
関西CVPR勉強会 2012.7.29
関西CVPR勉強会 2012.7.29
ICWSM12 Brief Review
ICWSM12 Brief Review
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会(特定物体認識) 2012.1.14
関西CVPRML勉強会(特定物体認識) 2012.1.14
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
立命館大学 AMLコロキウム 2011.10.20
立命館大学 AMLコロキウム 2011.10.20
Kürzlich hochgeladen
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NTT DATA Technology & Innovation
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
CRI Japan, Inc.
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
CRI Japan, Inc.
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
Hiroshi Tomioka
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
Kürzlich hochgeladen
(7)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
1.
Copyright©2014 NTT corp.
All Rights Reserved. CVPR2016 reading 特徴量学習とクロスモーダル転移について Akisato Kimura <akisato@ieee.org> _akisato http://www.kecl.ntt.co.jp/people/kimura.akisato/
2.
1 フルーツジュースはいかがですか?
3.
2 フルーツジュースはいかがですか?
4.
3 ジュースで大事なこと 材料 作り方 飲み方
5.
4 特徴量学習も同じです データセット 学習方法 利用目的
6.
5 特徴量は作るものから学ぶものへ http://www.isi.imi.i.u- tokyo.ac.jp/~harada/pdf/cvim_slide_harada20120315.pdf http://www.cc.gatech.edu/~hays/compvision/proj6/
7.
6 特徴量学習とは 教師付画像データを 機械学習器に与えて 画像特徴量を 抽出する方法を得る
8.
7 特徴量学習の目的 (1) • 次元削減 線形判別分析
Auto-encoder bottleneck features
9.
8 特徴量学習の目的 (1) • 最終タスク込みの特徴量学習
(end-to-end) [LeCun Proc. IEEE98]
10.
9 特徴量学習の目的 (2) • タスク実現のための中間特徴量 [Yu+
CVPR13] http://www.cc.gatech.edu/~hays/compvision/proj6/
11.
10 特徴量学習の問題点 教師付画像データ (畳み込み) ニューラネネットワーク 画像特徴量 深い学習で高い性能を出すほどの 大量の教師付データを作るには, お金か時間が大量に必要です.
12.
11 どうすれば良いか? • 教師なし特徴量学習 ‒ 教師付きデータを作らないで済ます •
クロスモーダル転移 ‒ 別のモーダルから得られる知識を転用する
13.
Copyright©2014 NTT corp.
All Rights Reserved. 教師なし特徴量学習 • Mukuta+ “Kernel approximation via empirical orthogonal decomposition for unsupervised feature learning” • Pathak+ “Context encoders: Feature learning byinpainting” • Zhang+ “Online collaborative learning for open vocabulary visual classifiers” • Yang+ “Joint unsupervised learning of deep representation and image clusters”
14.
13 初期の特徴量学習 教師付画像データ 画像特徴量 多変量解析
15.
14 Kernel PCA 特徴ベクトル 𝒙𝒙
を変換する方法 𝒈𝒈 = 𝚲𝚲−1/2 𝑨𝑨⊤ 𝒌𝒌 𝒌𝒌 = (𝐾𝐾 𝒙𝒙1, 𝒙𝒙 , 𝐾𝐾 𝒙𝒙2, 𝒙𝒙 , … , 𝑘𝑘(𝒙𝒙𝑛𝑛, 𝒙𝒙)), 𝑲𝑲 = 𝐾𝐾 𝒙𝒙1, 𝒙𝒙 𝑖𝑖,𝑗𝑗=1 𝑛𝑛 𝜆𝜆𝑖𝑖, 𝜶𝜶𝑖𝑖 𝑖𝑖=1 𝑛𝑛 : Sorted eigenvalues and normalized eigenvectors of 𝑲𝑲𝑲𝑲 = 𝜆𝜆𝜶𝜶 𝜆𝜆1 ≥ 𝜆𝜆2 ≥ ⋯ ≥ 𝜆𝜆 𝑚𝑚, 𝜶𝜶𝑖𝑖, 𝛼𝛼𝑗𝑗 = 𝛿𝛿𝑖𝑖,𝑗𝑗 𝚲𝚲 = diag(𝜆𝜆1, 𝜆𝜆2, … , 𝜆𝜆 𝑚𝑚), 𝑨𝑨 = (𝜶𝜶1, 𝜶𝜶2, … , 𝜶𝜶 𝑚𝑚) グラム行列が 大きい → 計算量大 小さい → 表現力不足 http://www.kecl.ntt.co.jp/people/kimura.akisato/titech/class.html
16.
15 グラム行列を近似する方法 • Nystrom method ‒
学習サンプルの乱択 + 部分グラム行列の直交展開 ‒ 直交展開に大きな計算量が必要 • Random feature method [Rahini+ NIPS07] ‒ カーネル関数を以下の形で表現 ‒ パラメータ 𝑤𝑤 のサンプリングによる関数近似 ‒ 近似に学習サンプルを用いない → 近似誤差が不十分
17.
16 学習サンプルを用いてカーネル関数を近似 Merserの定理 � 𝑋𝑋 𝑘𝑘 𝑥𝑥, 𝑦𝑦
𝜓𝜓𝑖𝑖 𝑥𝑥 𝑝𝑝 𝑥𝑥 𝑑𝑑𝑑𝑑 = 𝜆𝜆𝑖𝑖 𝜓𝜓𝑖𝑖(𝑥𝑥) 1. 分布 𝑝𝑝(𝑥𝑥) を学習サンプルから予測 2. 固有関数 𝜓𝜓𝑖𝑖(𝑥𝑥) を求める 3. 固有値 𝜆𝜆𝑖𝑖 が大きい固有関数だけ使う (Mukuta and Harada)
18.
17 最近の教師なし特徴量学習 Auto-encoder: 教師は自分 http://journal.frontiersin.org/article/10.3389/f ncom.2015.00032/full ここが特徴量 ここが画像
19.
18 周辺情報から中央部分を予測する特徴量学習 (Pathak, Krahenbuhl, Donahue,
Darrel and Efros) 平均値で埋める 別の欠損方法 でも良い
20.
19 教師なし特徴量学習の別アプローチ 教師のようなものを求められさえすれば良い [Fang+ CVPR15] 「ユーザ 𝑗𝑗
が 画像 𝑖𝑖 を見た」行列 協調フィルタリング
21.
20 Web annotationデータからのラベル予測 (Zhang, Shang,
Yang, Xu, Luan and Chua) ラベルベクトル 𝑦𝑦𝑡𝑡 を 潜在ベクトル 𝑣𝑣𝑡𝑡 に変換(圧縮) 画像特徴ベクトル 𝑥𝑥𝑡𝑡 から 潜在ベクトル 𝑣𝑣𝑡𝑡 を予測
22.
21 クラスタリングと特徴量学習を同時最適化 (Yang, Parikh and
Batra) 教師なし画像集合 CNN特徴抽出 (教師=クラスタ) Recurrent neural network (RNN) で全体をモデル化 クラスタを 徐々に更新 クラスタ
23.
Copyright©2014 NTT corp.
All Rights Reserved. クロスモーダル転移 • “Cross modal distillation for supervision transfer” • “Learning with side information through modality hallucination” • “Image style transfer using convolutional neural networks” • “Large scale semi-supervised object detection using visual and semantic knowledge transfer” • “Synthesized classifiers for zero-shot learning” • “Semi-supervised vocabulary-informed learning”
24.
23 クロスモーダル転移 典型例 - Zero-shot
learning • 画像のラベルを予測する分類問題で, 予測したいラベルの学習データが1つもない. [Frome+ NIPS13] word2vec CNN CNN特徴から単語ベクトルを予測 単語ベクトルが類似する単語を 予測結果として出力
25.
24 クロスモーダル転移が流行る周辺環境 • どのモーダルでもNN特徴表現が利用可能に • マルチモーダルNNの発達 [Silberer+
ACL14] [Srivastava+ JMLR14]
26.
Copyright©2014 NTT corp.
All Rights Reserved. マルチモーダル特徴量学習 • “MDL-CW: A multimodal deep learning framework with cross weights” • “Multi-view deep network for cross-view classification” • “Visual Word2Vec: Learning visually grounded word embeddings using abstract scenes”
27.
26 モーダルごとに学習して最後に統合, という固定観念を捨てる. (Rastegar, Baghshah, Rabiee
and Shojaee) Stacked auto-encoderでpre-training 最終層を結合して fine tuning
28.
27 判別分析規準のマルチモーダル特徴量学習を 全部NNで実現. (Kan, Shan and
Chen) クラスラベル 各モーダルからの入力 判別分析基準で損失を計算
29.
28 画像を介して単語ベクトルの 学習を精緻化 (Kottur, Vedantam, Moura
and Parikh) 単語系列を入力 画像特徴量を予測 画像を介すことでparaphrasingの判定も
30.
Copyright©2014 NTT corp.
All Rights Reserved. クロスモーダル転移 • “Cross modal distillation for supervision transfer” • “Learning with side information through modality hallucination” • “Synthesized classifiers for zero-shot learning” • “Semi-supervised vocabulary-informed learning” • “Latent embeddings for zero-shot classification” • “Image style transfer using convolutional neural networks” • “Learning attributes equals multi-source domain generalization”
31.
30 大量の教師付データで学習済のドメインから, 教師付データがほぼないドメインへモデル転移. (Gupta, Hoffman and
Malik) 転移の方法はあまり詳細に書かれていない
32.
31 Depth networkの出力を模倣する hallucination networkの導入. (Hoffman,
Gupta and Darrell) 灰色四角: 計算する損失 テスト時にdepthがなくても, depthを見ているのと 似た効果が得られる.
33.
32 Semantic空間での幾何関係を維持するように, 分類器のパラメータを多次元埋め込みで構成. (Changpinyo, Chao, Gong
and Sha) 分類器のパラメータ空間Attributes もしくは word2vec 空間 実在クラス仮想クラス実在クラス 仮想クラス
34.
33 予測対象ラベルの学習データがないかもしれない open-vocabulary learningの実現. (Fu and
Sigal) 画像特徴 𝑥𝑥 を単語ベクトル 𝑢𝑢 に変換する 𝑊𝑊 を求めたい. 自分の属するクラスの単語ベクトルが一番近くなるように変換したい.
35.
34 画像特徴と単語ベクトルの関係性を 複数の「観点」から学習することを目指す. (Xian, Akata, Sharma,
Nguyen, Hein and Schiele) 画像特徴 𝑥𝑥 と単語ベクトル 𝑦𝑦 とのfeasibilityが最大になるクラスに分類. 通常: Feasibilityは単一パラメータの双線形変換で記述. 本論文: 複数パラメータによる双線形変換の 混合として記述.
36.
35 (Gatys, Ecker and
Bethge) 白色雑音で駆動 Styleだけ転移したい 中身だけ転移したい Networkは実はどっちも同じ フィルタ応答を そのまま使う フィルタ応答の 相関を使う
37.
36 Attributesを用いた分類問題を 「ドメイン汎化」 [Muandet+ ICML13]
として考え直す. (Gan, Yang, Gong)
38.
Copyright©2014 NTT corp.
All Rights Reserved. まとめ
39.
38 ジュースで一番大事なこと 材料 作り方 飲み方
40.
39 特徴量学習も同じです データセット 学習方法 利用目的 • 目的に合わせたデータセットを用いる必要がある. • 同じ手法を用いても,異なる教師データからは異なる学習結果が出る. •
思うように結果が出ないのは, 本当に学習がうまくいっていないからでしょうか? • データの使い方を工夫すると,今までできなかった ことができるようになるかもしれない.
41.
40
Jetzt herunterladen