SlideShare ist ein Scribd-Unternehmen logo
1 von 29
はじめてのパターン認識
#4 確率モデルと識別関数(後編)
はじめに
• 田中 秀典といいます
• 分析力をコアとするマーケティングソリューションカンパニーのコアじゃない部分
を担当
• あのねー、、すごく難しくてねー、、薄い内容しかねー、、しゃべれない、、(子
供のころの貴乃花)
• はじパタをいきなり勉強する人の理解度を測るモデルケースと思っていただけれ
ば、、
• 間違っているところがありましたら、指摘してください
アジェンダ
• 確率モデル
• 正規分布
• 正規分布から導かれる識別関数
• 最尤推定
確率モデルとは
• データを分析する理由
過去の総括ではなく、未来の意思決定
そのためにはデータから何らかの(確率的)規則性を見つける必要がある
その規則性が確率モデル
意思決定を自動化するのが目標
確率モデルの種類
• ノンパラメトリック ・・ 仮説を設定しない。傾向を結果で示唆するが、明確で
はない
一切の前提が必要ない
例: ヒストグラム法, K最近傍法(5章),カーネル密度推定=パルツェン密度推定
• パラメトリック ・・ 仮説を設定する。はまれば強力
前提条件
• 等分散性 : F検定、 ルベーン検定、 バートレット検定
• 正規分布 : t検定、 ウェルチのt検定(等分散でない場合)
• 標本サイズがある程度大きい
例: 離散的 - 二項分布、多項分布、ポアゾン分布
連続的 - 一様分布、指数分布、正規分布
正規分布は確率モデルのKING
• 汎用的
• そもそも多くのデータが正規分布
• 正規分布からいろいろ解析結果をだせる
• データを加工(標本平均をとる)すれば、正規分布になる = 中心極限定理
• 扱いやすい
• パラメータは平均値と共分散のみ
• 正規分布を線形変換しても正規分布
• 正規分布の線形和も正規分布 (再生性)
• 正規分布の周辺分布も正規分布
• 無相関⇔独立
• ゲプロー
• げぷろー
• イチロー
• GEPURO-
• @gepuro-
Webにおちてたパワポを拝借、、勝手にSpecial Thanks..
こっからが全然分からないぜ、、
正規分布関数
•
正規分布関数
•
正規分布から導かれる識別関数
•
正規分布から導かれる識別関数
•
正規分布から導かれる識別関数
•
(4.32)
•
(4.32)
•
(4.32)
•
(4.32)
•
二次曲面
識別二次曲面のイメージ
分布の大きさや向きはバラバラであり
識別関数は二次形式になる
線形識別関数(1次式)
•
線形識別関数
線形識別関数のイメージ
正規分布から導かれる識別関数(まとめ)
• 基本形
•
線形識別関数
•
事前確率を重みとした共分散行列
なぜ簡単にするのか?
• モデルが複雑なほど良い汎化能力が得られるわけではない
確率モデルパラメータの最尤推定
•
確率モデルパラメータの最尤推定
•
1 変数の正規分布の場合
•
1 変数の正規分布の場合
•
対数をとる
1 変数の正規分布の場合
•
1 変数の正規分布の場合
•

Weitere ähnliche Inhalte

Was ist angesagt?

はじパタ8章 svm
はじパタ8章 svmはじパタ8章 svm
はじパタ8章 svm
tetsuro ito
 
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシンはじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシン
Motoya Wakiyama
 
はじパタ11章 後半
はじパタ11章 後半はじパタ11章 後半
はじパタ11章 後半
Atsushi Hayakawa
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tatsuya Tojima
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
Shinya Shimizu
 

Was ist angesagt? (20)

はじパタ8章 svm
はじパタ8章 svmはじパタ8章 svm
はじパタ8章 svm
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
 
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシンはじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシン
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
はじパタ11章 後半
はじパタ11章 後半はじパタ11章 後半
はじパタ11章 後半
 
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
 
はじめてのパターン認識 第9章 9.5-9.6
はじめてのパターン認識 第9章 9.5-9.6はじめてのパターン認識 第9章 9.5-9.6
はじめてのパターン認識 第9章 9.5-9.6
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
 
双対性
双対性双対性
双対性
 
はじぱた7章F5up
はじぱた7章F5upはじぱた7章F5up
はじぱた7章F5up
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー階層ベイズと自由エネルギー
階層ベイズと自由エネルギー
 
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する
 
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門  6. 最適化と学習アルゴリズムクラシックな機械学習の入門  6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 

Andere mochten auch

Considerations on Recommendation Independence for a Find-Good-Items Task
Considerations on Recommendation Independence for a Find-Good-Items TaskConsiderations on Recommendation Independence for a Find-Good-Items Task
Considerations on Recommendation Independence for a Find-Good-Items Task
Toshihiro Kamishima
 
機械学習とその理論 (情報オリンピック2015春合宿講義資料)
機械学習とその理論 (情報オリンピック2015春合宿講義資料)機械学習とその理論 (情報オリンピック2015春合宿講義資料)
機械学習とその理論 (情報オリンピック2015春合宿講義資料)
irrrrr
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
Nagayoshi Yamashita
 

Andere mochten auch (6)

Considerations on Recommendation Independence for a Find-Good-Items Task
Considerations on Recommendation Independence for a Find-Good-Items TaskConsiderations on Recommendation Independence for a Find-Good-Items Task
Considerations on Recommendation Independence for a Find-Good-Items Task
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
 
非線形データの次元圧縮 150905 WACODE 2nd
非線形データの次元圧縮 150905 WACODE 2nd非線形データの次元圧縮 150905 WACODE 2nd
非線形データの次元圧縮 150905 WACODE 2nd
 
機械学習とその理論 (情報オリンピック2015春合宿講義資料)
機械学習とその理論 (情報オリンピック2015春合宿講義資料)機械学習とその理論 (情報オリンピック2015春合宿講義資料)
機械学習とその理論 (情報オリンピック2015春合宿講義資料)
 
EMアルゴリズム
EMアルゴリズムEMアルゴリズム
EMアルゴリズム
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
 

はじめてのパターン認識4章後編