SlideShare a Scribd company logo
1 of 42
劣微分
Shinta Urakami
今回の目標
•劣微分というものについて,最低限のイ
メージとそのメリット(使用場所:Lasso)
について発表する.
• 数理的な最適化の話(共役関数とか)は今後勉強しながら
やっていく.
• まず,劣微分とは,,,
劣微分とは(ざっくりversion)
• まず,劣微分とは,,,
劣微分とは(ざっくりversion)
集合である
• まず,劣微分とは,,,
劣微分とは(ざっくりversion)
集合である
この確認はすごく大事である
なぜ,この確認が必要なのか(ざっくり)
• 微分と劣微分の関係性を見ていこう
なぜ,この確認が必要なのか(ざっくり)
• 微分と劣微分の関係性を見ていこう
劣微分は,微分の一般化
微分とは(一変数のとき)
ある関数 に対して,
導関数
この導関数を求めることを
「微分する」という.
微分とは(一変数のとき)
ある関数 に対して,
導関数
劣微分いつ使うの?
微分とは(一変数のとき)
ある関数 に対して,
導関数
微分と連続性の関係性
より必要になる.
微分と連続性の関係
• この世の関数なんでもかんでも,微分できるわけじゃない.
<微分可能性の定義>
微分可能性→関数のグラフがなめらか
数式でいうと,,
が, で微分可能のとき
が存在する
微分可能 連続
連続 微分可能
→
→
微分可能じゃない関数
連続であるが,微分可能
ではない(ノットなめらか)
例)
のとき,
右極限のときは1
左極限のときは-1
極限が一致せず,
微分不可能となる.
でも微分したい,,,,
基本的に絶対値は微分不可能
L1ノルム???絶対値 Lassoやん
<Lassoの目的関数>
でも微分したい,,,,
基本的に絶対値は微分不可能
L1ノルム???絶対値 Lassoやん
<Lassoの目的関数>
L1ノルム(微分不可能)を
含む関数を微分したい...
でも微分したい,,,,
基本的に絶対値は微分不可能
L1ノルム???絶対値 Lassoやん
<Lassoの目的関数>劣微分
劣微分とは(定義ベースで)
と凸関数 に関して,条件
を満たす, を点 における の劣勾配という.
劣勾配全体の集合を劣微分 と呼ぶ.
劣微分とは(定義ベースで)
と凸関数 に関して,条件
?
劣微分とは(定義ベースで)
と凸関数 に関して,条件
?
一変数における図的理解を行う
一変数関数における劣微分
• 一変数における凸関数 の のときの劣微分
傾き
関数 が. を通る傾き の直線より上側にあるような を
劣勾配という.
この列勾配の集合を劣微分という
なぜならこの条件を満たすものは複数あるから
要は,多変量に拡張しただけ
一変数
多変量
要は,多変量に拡張しただけ
一変数
多変量
n次元からスカラーに写像している
要は,多変量に拡張しただけ
一変数
多変量
計算結果はスカラーになる
劣微分とは
条件
要素
イメージ的にも,定義的にも劣微分が集合であることがわかる.
で考えてみよう
傾き
条件を満たす は,複数ある.
Ex.). = -0.2 も, = 0.7も劣勾配
で考えてみよう
傾き
条件を満たす は,複数ある.
Ex.). = -0.2 も, = 0.7も劣勾配
劣微分については
イメージできた.
で考えてみよう
傾き
条件を満たす は,複数ある.
Ex.). = -0.2 も, = 0.7も劣勾配
Lassoと劣微分の関係を
知りたい
Lasso
データ行列:
L1ノルム: L2ノルム:
正則化パラメータ:
回帰係数:
目的変数:
目的関数
Lasso
データ行列:
L1ノルム: L2ノルム:
正則化パラメータ:
回帰係数:
目的変数:
目的関数
どうやって求めるのか.
結論
で求める
軟閾値作要素
結論
で求める
軟閾値作要素
??????
結論
で求める
軟閾値作要素
なぜこの形になるか,
劣微分を使って説明
Lasso
L1ノルム=絶対値の和
微分不可能
劣微分使用
各列が直交で,長さが全て
を仮定.
微分していくぅ!(cv.金子)
で微分
に関しての微分
と同じ考え方
= 0のとき,微分不可能
もう一度再確認
のとき
劣微分
同様に
劣微分
まとめよう
劣微分の要素を とする.
について解く
まとめよう
の条件に当てはめると
正則化項の強さの話
ハイパーパラメータ
ここを強くすると,スパース
度合いも大きくなる
さきほどの式から明らか!
正則化項の強さの話
固定されてない値は であり,この
値が大きくなると,範囲も大きくなる
軟閾値作要素
さっきの条件分岐を関数にしただけ
軟閾値作用素
関数に置き換えているだけ
終わりに
• 劣微分,軟閾値作要素のイメージはつかめた.
• 今後はlasso含めての最適化を勉強していく.

More Related Content

What's hot

最適化計算の概要まとめ
最適化計算の概要まとめ最適化計算の概要まとめ
最適化計算の概要まとめYuichiro MInato
 
Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Kohta Ishikawa
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列Kenjiro Sugimoto
 
cvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tipscvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tipscvpaper. challenge
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?Fumihiko Takahashi
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章Shuyo Nakatani
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化gree_tech
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展Shiga University, RIKEN
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定Akira Masuda
 
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性Shiga University, RIKEN
 
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 Ken'ichi Matsui
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門hoxo_m
 
星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章Shuyo Nakatani
 
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展Deep Learning JP
 
因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"takehikoihayashi
 
強化学習その2
強化学習その2強化学習その2
強化学習その2nishio
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデルMasahiro Suzuki
 

What's hot (20)

coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
最適化計算の概要まとめ
最適化計算の概要まとめ最適化計算の概要まとめ
最適化計算の概要まとめ
 
Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
 
cvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tipscvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tips
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
 
研究効率化Tips Ver.2
研究効率化Tips Ver.2研究効率化Tips Ver.2
研究効率化Tips Ver.2
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性
 
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
 
星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章
 
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展
 
因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"
 
強化学習その2
強化学習その2強化学習その2
強化学習その2
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 

劣微分