SlideShare ist ein Scribd-Unternehmen logo
1 von 35
Downloaden Sie, um offline zu lesen
5. Kernel methods for vector data (II)
    e e    et ods o ecto          ( )


         Akisato Kimura (Twitter ID: @_akisato)
初めての方もいらっしゃるので…
初めての方もいらっしゃるので
       Social mediaでの自己紹介




       これまでに関わった研究業界を国内研究会名で書くと
           本業的: IEICE-PRMU, IEICE-IT, SITA, IEICE-IBISML
           副業的: IEICE-DE, ASJ, VSJ, IPSJ-SIGMUS
           これから?: NLP, IPSJ-SIGDIAL

    2                              CV勉強会 2011.2.19
Contents
1.       Kernel PCA
         多くのページがここに割かれています
2.       FDA / CCA / Subspace methods
3.       Manifold learning
         ここまで手が回らなかったので、勘弁して下さい。


【注意】
教科書と全然違うストーリーで説明しています。
記号は合わせてありますが、ご注意下さい。
記号は合わせてありますが ご注意下さい

                             Cf. 赤穂 “カーネル多変量解析”、岩波書店
 3                             CV勉強会 2011.2.19
5.1 Kernel PCA
PCAって何?
       多次元ベクトルとして表現される多数のサンプルから、
        それらの分散が大きくなる正規直交軸を見つける手法。




           サンプルが多次元ガウス分布に従うときは非常に有効
           そうでないときも、サンプル表現に寄与しない成分を捨てる
            目的で使用されることが多い。

    5                    CV勉強会 2011.2.19
Kernel PCA って何?
       主成分分析 (PCA) にカーネルトリックを利用することで、
        非線形次元削減を実現する方法。




         Cf. 福水 “カーネル法による非線形解析法” http://www.ism.ac.jp/~fukumizu/papers/Kernel_rois2006.pdf
    6                                          CV勉強会 2011.2.19
PCAの定式化 1
       多次元ベクトルのサンプルが与えられているとする。
           簡単のため、以降はサンプル平均=0であることを仮定します。
                            要注意 (教科書に合わせています)


       射影後のサンプルの分散が最大になる基底                を求める




    7                    CV勉強会 2011.2.19
PCAの定式化 2
       各基底が単位ベクトルとなるように正規化


       Lagrange 未定定数法を用いて、問題を書き直す。


       基底での微分=0 とすると、




           共分散行列の固有値問題を解けば良い!

    8                    CV勉強会 2011.2.19
PCAにおける基底の選択
       PCAの目的関数に固有値問題の解を導入すると


           固有値=射影後のサンプルの分散
            → 固有値が大きい順に対応する固有ベクトルを基底とする

       寄与率・累積寄与率
           寄与率
            寄与率: 所定の基底が表現できるサンプルの分散
                         (第   i       番目の基底の寄与率)




                         (第       i   番目までの基底の累積寄与率)

    9                    CV勉強会 2011.2.19
PCAによる次元削減
    新しいサンプル    を、選択された基底群で決まる
     部分空間に(直交)射影する。
        要するに、サンプルと各基底との内積を取れば良い。




        寄与率を考慮した射影を考える場合もある。




    10                CV勉強会 2011.2.19
PCA to Kernel PCA
    見かけ上は、非常に簡単に移行できます。
     1.   グラム行列を構成し、その固有値問題を解く。




     2.
     2    新しいサンプルと得られた固有ベクトルとの
          (カーネルで規定される空間上で)内積を取る。




    …ですが、何でそうなるのか?
         ということについて、これから説明します。
            う      、    説明  す。

    11                  CV勉強会 2011.2.19
Kernel PCAの定式化 1
    まず、サンプルを非線形変換する
        言うまでもないですが、実際には計算できない変換です。
        ここでも同様に、(変換後)サンプル平均=0を仮定します。



    射影後のサンプルの分散が最大になる基底                 を求める




    12                 CV勉強会 2011.2.19
Kernel PCAの定式化 2
    各基底が単位ベクトルとなるように正規化


    Lagrange 未定定数法を用いて 問題を書き直す
              未定定数法を用いて、問題を書き直す。


    基底での微分を取ると


                       共分散行列を計算できない!
        共分散行列の固有値問題を…というわけにはいかない。


    13                CV勉強会 2011.2.19
Kernel PCAの定式化 3
    もう少し詳しく見てみよう




    ゆえに、新しいサンプルの部分空間への射影は
     ゆえに 新しいサンプルの部分空間への射影は



                       グラム行列で計算できる!


    14              CV勉強会 2011.2.19
Kernel PCAの定式化 4
    あとは係数 v をどう求めるか? が課題。
        もう一度、射影後のサンプルの分散を計算してみる。




    15                CV勉強会 2011.2.19
Kernel PCAの定式化 5
    各基底が単位ベクトルとなるように正規化


    Lagrange 未定定数法を用いて 問題を書き直す
              未定定数法を用いて、問題を書き直す。


    基底での微分を取ると、



        (グラム行列が正則であれば)
         グラム行列の固有値問題を解けば、基底が求まる!

    16               CV勉強会 2011.2.19
Kernel PCAを行った例 1
    多項式カーネル(次数=3)を用いた場合




    17            CV勉強会 2011.2.19
Kernel PCAを行った例 2
    ガウスカーネル(σ=40)を用いた場合




    18             CV勉強会 2011.2.19
Kernel PCAを行った例 3




     Cf. 福水 “カーネル法による非線形解析法” http://www.ism.ac.jp/~fukumizu/papers/Kernel_rois2006.pdf
19                                         CV勉強会 2011.2.19
Kernel PCAの問題点
    結果はカーネルの選び方に大きく依存する。
        どんな種類のカーネルを使うか?パラメータは?
        ガウスカーネルの場合には,分散パラメータを
         自動的に選択する方法がいくつか提案されている.
         自動的 選択する方法が く か提案され   る
            (Mean shiftの節などを参照.)


    しかし、カーネルの選び方に確固たる方法論はない。
        どのような目的・応用に用いられるか? で異なる
                            で異なる。
        つまりは、その目的・応用で良い結果が得られるかどうか?
         が、カ ネルを選択するための現時点で最良の方法
         が、カーネルを選択するための現時点で最良の方法



    20                          CV勉強会 2011.2.19
5.2 FDA / CCA / Subspace methods
          CC              et ods
多変量解析の全体像

多次元変量を       正準相関分析                       多次元変量の
 2組に拡張                                     制約を排除



     主成分分析                         判別分析



              目的変量yを
               的変量 を
             多次元変量に拡張
              重回帰分析




22               CV勉強会 2011.2.19
正準相関分析 (CCA)
    2組の多次元ベクトル群が与えられているとする。

                                        ※ 簡単のため平均0を仮定します。

    このベクトル群を個別に射影するための基底を求めたい。
        基準: 射影後のサンプル群の正規化相関が最大になる基底




             Cf. @_akisato “正準相関分析” http://www.slideshare.net/akisatokimura/090608-cca
    23                                  CV勉強会 2011.2.19
CCAの定式化 1
    各変換を以下のようにして正規化

        正規化の意味: 変換先の変量を標準正規化する


    Lagrange未定定数法を用いて、問題を書き直す。




    各変換で微分すると・・・



    24                CV勉強会 2011.2.19
CCAの定式化 2
    共分散行列  が正則であるとすると、
     下記の一般化固有値問題に変形可能


                                      4

    共分散行列のCholesky分解を用いることで、
     通常の固有値問題に変形可能                        下三角行列

                                           2

                                           1

                                           3

    25              CV勉強会 2011.2.19
CCAの特殊例
    CCAを特殊化することで、以下のような問題も解けます。
        Fisher線形判別分析 (FDA)
            CCAをマルチラベル分類と考えたときの、シングルラベル版。

                                         :クラス間分散             :クラス内分散

        線形回帰分析(重回帰分析: MLR)
            通常は最小自乗法で求めるが、
             一般化固有値問題として解くこともできる。




                   Cf. 木村+“拡張ペアワイズ表現を用いた一般化多変量解析” to appear in MIRU2011
    26                              CV勉強会 2011.2.19
Kernel CCA
    Kernel CCAの導出もPCAとほぼ同様にできる。
        PCA同様,形式的には共分散行列をグラム行列で置換.




    正則化が事実上必須.
        グラム行列のランクが元の次元数しかなく,解が安定しない.



                                       Tikhonov正則化 (L2ノルム正則化)
                Cf. Max Welling “Kernel canonical correlation analysis”, http://ow.ly/3ZtZ3

    27                                 CV勉強会 2011.2.19
5.3 Manifold learning
多様体学習,とは何か?
多様体学習 とは何か?
    サンプル集合,もしくはそのサンプル間隣接行列が
     与えられたときに,その局所的な隣接関係に基づいて
     サンプルが分布する低次元部分空間を求める方法.
        代表例: Swiss roll

                   ユークリッド空間上では近い
                   ユ クリッド空間上では近い




                 局所的な隣接関係を
                 考慮すると,本当は遠い


    29                     CV勉強会 2011.2.19
多様体学習の重要性
    連続変化する属性を持つ対象の
     サンプル集合の表現
        例) 3次元物体認識タスクで
         視点位置変動を表現したい.
         視点位置変動を表現したい



    複数の属性を持つサンプル集合の
     識別学習の補助
        例) 顔画像から,人物・顔向き・表情
         それぞれを個別に識別したい.
         それぞれを個別に識別したい



    30                    CV勉強会 2011.2.19
これってkernel PCAじゃないの?
    原空間における非線形基底を求めているのと同じ
        だが,どのようにカーネルを設計すれば
         所望の多様体を獲得できるのかがわからない.

            (でも実際にはkernel PCAの特殊例になるんですが…)




    31                        CV勉強会 2011.2.19
代表的な多様体学習のための手法 (1)
    Isomap    [Tenenbaum+ 2000]
        Isomap Homepage: http://isomap.stanford.edu



           スパースな隣接行列を作る
           =サンプルを頂点に対応づける
            サンプルを頂点に対応づける
            グラフを作る


           グラフ上の各頂点間の最短
           パスを見つけ,その距離を
           新しい隣接行列と考える.


           (変換した)新しい隣接行列の
           固有ベクトルが,埋め込み先の
           基底となる.
           基底となる

    32                             CV勉強会 2011.2.19
代表的な多様体学習のための手法 (2)
    Local Linear Embedding (LLE)        [Roweis+ 2000]
        LLE page: http://ow.ly/4FsVz
                               所定数の近傍サンプルを取り出す




                                        近傍サンプルのみから共分散行列を
                                        計算し,それに基づいて重み付け




                              重み行列の固有ベクトルが
                              埋め込み先の基底となる


    33                           CV勉強会 2011.2.19
実は全部kernel PCAと見なせます
    が,それは文献 [27] を見て下さい.
            (実は間に合わなかっただけ)




    34                        CV勉強会 2011.2.19
おしまい




35     CV勉強会 2011.2.19

Weitere ähnliche Inhalte

Was ist angesagt?

PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1
PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1
PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1Len Matsuyama
 
Icml2019 kyoto ohno_ver20190805
Icml2019 kyoto ohno_ver20190805Icml2019 kyoto ohno_ver20190805
Icml2019 kyoto ohno_ver20190805Shuntaro Ohno
 
パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0sleipnir002
 
Generating Diverse High-Fidelity Images with VQ-VAE-2
Generating Diverse High-Fidelity Images with VQ-VAE-2Generating Diverse High-Fidelity Images with VQ-VAE-2
Generating Diverse High-Fidelity Images with VQ-VAE-2harmonylab
 
Prml14th 10.7
Prml14th 10.7Prml14th 10.7
Prml14th 10.7ruto5
 
Matrix capsules with em routing
Matrix capsules with em routingMatrix capsules with em routing
Matrix capsules with em routingKazuki Fujikawa
 
Nips yomikai 1226
Nips yomikai 1226Nips yomikai 1226
Nips yomikai 1226Yo Ehara
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじsleepy_yoshi
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4Takeshi Sakaki
 
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
[DL輪読会]Xception: Deep Learning with Depthwise Separable ConvolutionsDeep Learning JP
 
[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classification[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classificationDeep Learning JP
 
低ランク行列補完のためのマトロイド理論
低ランク行列補完のためのマトロイド理論低ランク行列補完のためのマトロイド理論
低ランク行列補完のためのマトロイド理論ryotat
 
Jokyonokai130531
Jokyonokai130531Jokyonokai130531
Jokyonokai130531nwpmq516
 
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)ryotat
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)Morpho, Inc.
 

Was ist angesagt? (20)

PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1
PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1
PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1
 
Icml2019 kyoto ohno_ver20190805
Icml2019 kyoto ohno_ver20190805Icml2019 kyoto ohno_ver20190805
Icml2019 kyoto ohno_ver20190805
 
W8PRML5.1-5.3
W8PRML5.1-5.3W8PRML5.1-5.3
W8PRML5.1-5.3
 
パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0
 
PRML Chapter 14
PRML Chapter 14PRML Chapter 14
PRML Chapter 14
 
はじパタLT2
はじパタLT2はじパタLT2
はじパタLT2
 
Generating Diverse High-Fidelity Images with VQ-VAE-2
Generating Diverse High-Fidelity Images with VQ-VAE-2Generating Diverse High-Fidelity Images with VQ-VAE-2
Generating Diverse High-Fidelity Images with VQ-VAE-2
 
Prml14th 10.7
Prml14th 10.7Prml14th 10.7
Prml14th 10.7
 
Matrix capsules with em routing
Matrix capsules with em routingMatrix capsules with em routing
Matrix capsules with em routing
 
Nips yomikai 1226
Nips yomikai 1226Nips yomikai 1226
Nips yomikai 1226
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
 
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
 
[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classification[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classification
 
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
 
Jokyo20130218
Jokyo20130218Jokyo20130218
Jokyo20130218
 
低ランク行列補完のためのマトロイド理論
低ランク行列補完のためのマトロイド理論低ランク行列補完のためのマトロイド理論
低ランク行列補完のためのマトロイド理論
 
Jokyonokai130531
Jokyonokai130531Jokyonokai130531
Jokyonokai130531
 
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
 

Ähnlich wie 関西CVPRML勉強会 kernel PCA

【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】Naoki Hayashi
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative ModelsDeep Learning JP
 
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】Naoki Hayashi
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5matsuolab
 
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...Deep Learning JP
 
変分推論と Normalizing Flow
変分推論と Normalizing Flow変分推論と Normalizing Flow
変分推論と Normalizing FlowAkihiro Nitta
 
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
(DL hacks輪読) Variational Dropout and the Local Reparameterization TrickMasahiro Suzuki
 
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...Deep Learning JP
 
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析Akisato Kimura
 
Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用Shohei Kumagai
 
Humpback whale identification challenge反省会
Humpback whale identification challenge反省会Humpback whale identification challenge反省会
Humpback whale identification challenge反省会Yusuke Uchida
 
多変量解析の一般化
多変量解析の一般化多変量解析の一般化
多変量解析の一般化Akisato Kimura
 
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」Naoki Hayashi
 
attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介Masayoshi Kondo
 
PFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナー
PFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナーPFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナー
PFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナーMatlantis
 

Ähnlich wie 関西CVPRML勉強会 kernel PCA (20)

【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
 
KDD2014 勉強会
KDD2014 勉強会KDD2014 勉強会
KDD2014 勉強会
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
 
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
 
変分推論と Normalizing Flow
変分推論と Normalizing Flow変分推論と Normalizing Flow
変分推論と Normalizing Flow
 
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
 
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
 
Rokko チュートリアル
Rokko チュートリアルRokko チュートリアル
Rokko チュートリアル
 
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
 
Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用
 
Pfi last seminar
Pfi last seminarPfi last seminar
Pfi last seminar
 
Humpback whale identification challenge反省会
Humpback whale identification challenge反省会Humpback whale identification challenge反省会
Humpback whale identification challenge反省会
 
深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向
 
多変量解析の一般化
多変量解析の一般化多変量解析の一般化
多変量解析の一般化
 
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
 
attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介
 
PFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナー
PFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナーPFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナー
PFP:材料探索のための汎用Neural Network Potential_中郷_20220422POLセミナー
 

Mehr von Akisato Kimura

Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Akisato Kimura
 
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Akisato Kimura
 
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移についてCVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移についてAkisato Kimura
 
NIPS2015 reading - Learning visual biases from human imagination
NIPS2015 reading - Learning visual biases from human imaginationNIPS2015 reading - Learning visual biases from human imagination
NIPS2015 reading - Learning visual biases from human imaginationAkisato Kimura
 
CVPR2015 reading "Global refinement of random forest"
CVPR2015 reading "Global refinement of random forest"CVPR2015 reading "Global refinement of random forest"
CVPR2015 reading "Global refinement of random forest"Akisato Kimura
 
CVPR2015 reading "Understainding image virality" (in Japanese)
CVPR2015 reading "Understainding image virality" (in Japanese)CVPR2015 reading "Understainding image virality" (in Japanese)
CVPR2015 reading "Understainding image virality" (in Japanese)Akisato Kimura
 
Computational models of human visual attention driven by auditory cues
Computational models of human visual attention driven by auditory cuesComputational models of human visual attention driven by auditory cues
Computational models of human visual attention driven by auditory cuesAkisato Kimura
 
NIPS2014 reading - Top rank optimization in linear time
NIPS2014 reading - Top rank optimization in linear timeNIPS2014 reading - Top rank optimization in linear time
NIPS2014 reading - Top rank optimization in linear timeAkisato Kimura
 
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...Akisato Kimura
 
ICCV2013 reading: Learning to rank using privileged information
ICCV2013 reading: Learning to rank using privileged informationICCV2013 reading: Learning to rank using privileged information
ICCV2013 reading: Learning to rank using privileged informationAkisato Kimura
 
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...Akisato Kimura
 
IJCAI13 Paper review: Large-scale spectral clustering on graphs
IJCAI13 Paper review: Large-scale spectral clustering on graphsIJCAI13 Paper review: Large-scale spectral clustering on graphs
IJCAI13 Paper review: Large-scale spectral clustering on graphsAkisato Kimura
 
関西CVPR勉強会 2012.10.28
関西CVPR勉強会 2012.10.28関西CVPR勉強会 2012.10.28
関西CVPR勉強会 2012.10.28Akisato Kimura
 
関西CVPR勉強会 2012.7.29
関西CVPR勉強会 2012.7.29関西CVPR勉強会 2012.7.29
関西CVPR勉強会 2012.7.29Akisato Kimura
 
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)Akisato Kimura
 
関西CVPRML勉強会(特定物体認識) 2012.1.14
関西CVPRML勉強会(特定物体認識) 2012.1.14関西CVPRML勉強会(特定物体認識) 2012.1.14
関西CVPRML勉強会(特定物体認識) 2012.1.14Akisato Kimura
 
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -Akisato Kimura
 
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明Akisato Kimura
 
立命館大学 AMLコロキウム 2011.10.20
立命館大学 AMLコロキウム 2011.10.20立命館大学 AMLコロキウム 2011.10.20
立命館大学 AMLコロキウム 2011.10.20Akisato Kimura
 

Mehr von Akisato Kimura (20)

Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
 
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
 
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移についてCVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
 
NIPS2015 reading - Learning visual biases from human imagination
NIPS2015 reading - Learning visual biases from human imaginationNIPS2015 reading - Learning visual biases from human imagination
NIPS2015 reading - Learning visual biases from human imagination
 
CVPR2015 reading "Global refinement of random forest"
CVPR2015 reading "Global refinement of random forest"CVPR2015 reading "Global refinement of random forest"
CVPR2015 reading "Global refinement of random forest"
 
CVPR2015 reading "Understainding image virality" (in Japanese)
CVPR2015 reading "Understainding image virality" (in Japanese)CVPR2015 reading "Understainding image virality" (in Japanese)
CVPR2015 reading "Understainding image virality" (in Japanese)
 
Computational models of human visual attention driven by auditory cues
Computational models of human visual attention driven by auditory cuesComputational models of human visual attention driven by auditory cues
Computational models of human visual attention driven by auditory cues
 
NIPS2014 reading - Top rank optimization in linear time
NIPS2014 reading - Top rank optimization in linear timeNIPS2014 reading - Top rank optimization in linear time
NIPS2014 reading - Top rank optimization in linear time
 
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
 
ICCV2013 reading: Learning to rank using privileged information
ICCV2013 reading: Learning to rank using privileged informationICCV2013 reading: Learning to rank using privileged information
ICCV2013 reading: Learning to rank using privileged information
 
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
 
IJCAI13 Paper review: Large-scale spectral clustering on graphs
IJCAI13 Paper review: Large-scale spectral clustering on graphsIJCAI13 Paper review: Large-scale spectral clustering on graphs
IJCAI13 Paper review: Large-scale spectral clustering on graphs
 
関西CVPR勉強会 2012.10.28
関西CVPR勉強会 2012.10.28関西CVPR勉強会 2012.10.28
関西CVPR勉強会 2012.10.28
 
関西CVPR勉強会 2012.7.29
関西CVPR勉強会 2012.7.29関西CVPR勉強会 2012.7.29
関西CVPR勉強会 2012.7.29
 
ICWSM12 Brief Review
ICWSM12 Brief ReviewICWSM12 Brief Review
ICWSM12 Brief Review
 
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
 
関西CVPRML勉強会(特定物体認識) 2012.1.14
関西CVPRML勉強会(特定物体認識) 2012.1.14関西CVPRML勉強会(特定物体認識) 2012.1.14
関西CVPRML勉強会(特定物体認識) 2012.1.14
 
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
 
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
 
立命館大学 AMLコロキウム 2011.10.20
立命館大学 AMLコロキウム 2011.10.20立命館大学 AMLコロキウム 2011.10.20
立命館大学 AMLコロキウム 2011.10.20
 

関西CVPRML勉強会 kernel PCA

  • 1. 5. Kernel methods for vector data (II) e e et ods o ecto ( ) Akisato Kimura (Twitter ID: @_akisato)
  • 2. 初めての方もいらっしゃるので… 初めての方もいらっしゃるので  Social mediaでの自己紹介  これまでに関わった研究業界を国内研究会名で書くと  本業的: IEICE-PRMU, IEICE-IT, SITA, IEICE-IBISML  副業的: IEICE-DE, ASJ, VSJ, IPSJ-SIGMUS  これから?: NLP, IPSJ-SIGDIAL 2 CV勉強会 2011.2.19
  • 3. Contents 1. Kernel PCA  多くのページがここに割かれています 2. FDA / CCA / Subspace methods 3. Manifold learning  ここまで手が回らなかったので、勘弁して下さい。 【注意】 教科書と全然違うストーリーで説明しています。 記号は合わせてありますが、ご注意下さい。 記号は合わせてありますが ご注意下さい Cf. 赤穂 “カーネル多変量解析”、岩波書店 3 CV勉強会 2011.2.19
  • 5. PCAって何?  多次元ベクトルとして表現される多数のサンプルから、 それらの分散が大きくなる正規直交軸を見つける手法。  サンプルが多次元ガウス分布に従うときは非常に有効  そうでないときも、サンプル表現に寄与しない成分を捨てる 目的で使用されることが多い。 5 CV勉強会 2011.2.19
  • 6. Kernel PCA って何?  主成分分析 (PCA) にカーネルトリックを利用することで、 非線形次元削減を実現する方法。 Cf. 福水 “カーネル法による非線形解析法” http://www.ism.ac.jp/~fukumizu/papers/Kernel_rois2006.pdf 6 CV勉強会 2011.2.19
  • 7. PCAの定式化 1  多次元ベクトルのサンプルが与えられているとする。  簡単のため、以降はサンプル平均=0であることを仮定します。 要注意 (教科書に合わせています)  射影後のサンプルの分散が最大になる基底 を求める 7 CV勉強会 2011.2.19
  • 8. PCAの定式化 2  各基底が単位ベクトルとなるように正規化  Lagrange 未定定数法を用いて、問題を書き直す。  基底での微分=0 とすると、  共分散行列の固有値問題を解けば良い! 8 CV勉強会 2011.2.19
  • 9. PCAにおける基底の選択  PCAの目的関数に固有値問題の解を導入すると  固有値=射影後のサンプルの分散 → 固有値が大きい順に対応する固有ベクトルを基底とする  寄与率・累積寄与率  寄与率 寄与率: 所定の基底が表現できるサンプルの分散 (第 i 番目の基底の寄与率) (第 i 番目までの基底の累積寄与率) 9 CV勉強会 2011.2.19
  • 10. PCAによる次元削減  新しいサンプル を、選択された基底群で決まる 部分空間に(直交)射影する。  要するに、サンプルと各基底との内積を取れば良い。  寄与率を考慮した射影を考える場合もある。 10 CV勉強会 2011.2.19
  • 11. PCA to Kernel PCA  見かけ上は、非常に簡単に移行できます。 1. グラム行列を構成し、その固有値問題を解く。 2. 2 新しいサンプルと得られた固有ベクトルとの (カーネルで規定される空間上で)内積を取る。  …ですが、何でそうなるのか?  ということについて、これから説明します。 う 、 説明 す。 11 CV勉強会 2011.2.19
  • 12. Kernel PCAの定式化 1  まず、サンプルを非線形変換する  言うまでもないですが、実際には計算できない変換です。  ここでも同様に、(変換後)サンプル平均=0を仮定します。  射影後のサンプルの分散が最大になる基底 を求める 12 CV勉強会 2011.2.19
  • 13. Kernel PCAの定式化 2  各基底が単位ベクトルとなるように正規化  Lagrange 未定定数法を用いて 問題を書き直す 未定定数法を用いて、問題を書き直す。  基底での微分を取ると 共分散行列を計算できない!  共分散行列の固有値問題を…というわけにはいかない。 13 CV勉強会 2011.2.19
  • 14. Kernel PCAの定式化 3  もう少し詳しく見てみよう  ゆえに、新しいサンプルの部分空間への射影は ゆえに 新しいサンプルの部分空間への射影は グラム行列で計算できる! 14 CV勉強会 2011.2.19
  • 15. Kernel PCAの定式化 4  あとは係数 v をどう求めるか? が課題。  もう一度、射影後のサンプルの分散を計算してみる。 15 CV勉強会 2011.2.19
  • 16. Kernel PCAの定式化 5  各基底が単位ベクトルとなるように正規化  Lagrange 未定定数法を用いて 問題を書き直す 未定定数法を用いて、問題を書き直す。  基底での微分を取ると、  (グラム行列が正則であれば) グラム行列の固有値問題を解けば、基底が求まる! 16 CV勉強会 2011.2.19
  • 17. Kernel PCAを行った例 1  多項式カーネル(次数=3)を用いた場合 17 CV勉強会 2011.2.19
  • 18. Kernel PCAを行った例 2  ガウスカーネル(σ=40)を用いた場合 18 CV勉強会 2011.2.19
  • 19. Kernel PCAを行った例 3 Cf. 福水 “カーネル法による非線形解析法” http://www.ism.ac.jp/~fukumizu/papers/Kernel_rois2006.pdf 19 CV勉強会 2011.2.19
  • 20. Kernel PCAの問題点  結果はカーネルの選び方に大きく依存する。  どんな種類のカーネルを使うか?パラメータは?  ガウスカーネルの場合には,分散パラメータを 自動的に選択する方法がいくつか提案されている. 自動的 選択する方法が く か提案され る  (Mean shiftの節などを参照.)  しかし、カーネルの選び方に確固たる方法論はない。  どのような目的・応用に用いられるか? で異なる で異なる。  つまりは、その目的・応用で良い結果が得られるかどうか? が、カ ネルを選択するための現時点で最良の方法 が、カーネルを選択するための現時点で最良の方法 20 CV勉強会 2011.2.19
  • 21. 5.2 FDA / CCA / Subspace methods CC et ods
  • 22. 多変量解析の全体像 多次元変量を 正準相関分析 多次元変量の 2組に拡張 制約を排除 主成分分析 判別分析 目的変量yを 的変量 を 多次元変量に拡張 重回帰分析 22 CV勉強会 2011.2.19
  • 23. 正準相関分析 (CCA)  2組の多次元ベクトル群が与えられているとする。 ※ 簡単のため平均0を仮定します。  このベクトル群を個別に射影するための基底を求めたい。  基準: 射影後のサンプル群の正規化相関が最大になる基底 Cf. @_akisato “正準相関分析” http://www.slideshare.net/akisatokimura/090608-cca 23 CV勉強会 2011.2.19
  • 24. CCAの定式化 1  各変換を以下のようにして正規化  正規化の意味: 変換先の変量を標準正規化する  Lagrange未定定数法を用いて、問題を書き直す。  各変換で微分すると・・・ 24 CV勉強会 2011.2.19
  • 25. CCAの定式化 2  共分散行列 が正則であるとすると、 下記の一般化固有値問題に変形可能 4  共分散行列のCholesky分解を用いることで、 通常の固有値問題に変形可能 下三角行列 2 1 3 25 CV勉強会 2011.2.19
  • 26. CCAの特殊例  CCAを特殊化することで、以下のような問題も解けます。  Fisher線形判別分析 (FDA)  CCAをマルチラベル分類と考えたときの、シングルラベル版。 :クラス間分散 :クラス内分散  線形回帰分析(重回帰分析: MLR)  通常は最小自乗法で求めるが、 一般化固有値問題として解くこともできる。 Cf. 木村+“拡張ペアワイズ表現を用いた一般化多変量解析” to appear in MIRU2011 26 CV勉強会 2011.2.19
  • 27. Kernel CCA  Kernel CCAの導出もPCAとほぼ同様にできる。  PCA同様,形式的には共分散行列をグラム行列で置換.  正則化が事実上必須.  グラム行列のランクが元の次元数しかなく,解が安定しない. Tikhonov正則化 (L2ノルム正則化) Cf. Max Welling “Kernel canonical correlation analysis”, http://ow.ly/3ZtZ3 27 CV勉強会 2011.2.19
  • 29. 多様体学習,とは何か? 多様体学習 とは何か?  サンプル集合,もしくはそのサンプル間隣接行列が 与えられたときに,その局所的な隣接関係に基づいて サンプルが分布する低次元部分空間を求める方法.  代表例: Swiss roll ユークリッド空間上では近い ユ クリッド空間上では近い 局所的な隣接関係を 考慮すると,本当は遠い 29 CV勉強会 2011.2.19
  • 30. 多様体学習の重要性  連続変化する属性を持つ対象の サンプル集合の表現  例) 3次元物体認識タスクで 視点位置変動を表現したい. 視点位置変動を表現したい  複数の属性を持つサンプル集合の 識別学習の補助  例) 顔画像から,人物・顔向き・表情 それぞれを個別に識別したい. それぞれを個別に識別したい 30 CV勉強会 2011.2.19
  • 31. これってkernel PCAじゃないの?  原空間における非線形基底を求めているのと同じ  だが,どのようにカーネルを設計すれば 所望の多様体を獲得できるのかがわからない.  (でも実際にはkernel PCAの特殊例になるんですが…) 31 CV勉強会 2011.2.19
  • 32. 代表的な多様体学習のための手法 (1)  Isomap [Tenenbaum+ 2000]  Isomap Homepage: http://isomap.stanford.edu スパースな隣接行列を作る =サンプルを頂点に対応づける サンプルを頂点に対応づける グラフを作る グラフ上の各頂点間の最短 パスを見つけ,その距離を 新しい隣接行列と考える. (変換した)新しい隣接行列の 固有ベクトルが,埋め込み先の 基底となる. 基底となる 32 CV勉強会 2011.2.19
  • 33. 代表的な多様体学習のための手法 (2)  Local Linear Embedding (LLE) [Roweis+ 2000]  LLE page: http://ow.ly/4FsVz 所定数の近傍サンプルを取り出す 近傍サンプルのみから共分散行列を 計算し,それに基づいて重み付け 重み行列の固有ベクトルが 埋め込み先の基底となる 33 CV勉強会 2011.2.19
  • 34. 実は全部kernel PCAと見なせます  が,それは文献 [27] を見て下さい.  (実は間に合わなかっただけ) 34 CV勉強会 2011.2.19
  • 35. おしまい 35 CV勉強会 2011.2.19