Suche senden
Hochladen
はじパタ2章
•
20 gefällt mir
•
21,610 views
tetsuro ito
Folgen
Melden
Teilen
Melden
Teilen
1 von 25
Jetzt herunterladen
Downloaden Sie, um offline zu lesen
Empfohlen
はじめてのパターン認識 第1章
はじめてのパターン認識 第1章
Prunus 1350
『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2
MITSUNARI Shigeo
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
Hakky St
パターン認識と機械学習入門
パターン認識と機械学習入門
Momoko Hayamizu
これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法
kenyanonaka
はじパタ6章前半
はじパタ6章前半
T T
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
Ichigaku Takigawa
Empfohlen
はじめてのパターン認識 第1章
はじめてのパターン認識 第1章
Prunus 1350
『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2
MITSUNARI Shigeo
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
Hakky St
パターン認識と機械学習入門
パターン認識と機械学習入門
Momoko Hayamizu
これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法
kenyanonaka
はじパタ6章前半
はじパタ6章前半
T T
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
Ichigaku Takigawa
関数データ解析の概要とその方法
関数データ解析の概要とその方法
Hidetoshi Matsui
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII
はじぱた7章F5up
はじぱた7章F5up
Tyee Z
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
ohken
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
Deep Learning JP
「いい検索」を考える
「いい検索」を考える
Shuryo Uchida
データサイエンティストの仕事とデータ分析コンテスト
データサイエンティストの仕事とデータ分析コンテスト
Ken'ichi Matsui
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
Satoshi Hara
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性
Shiga University, RIKEN
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
Taiji Suzuki
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
諒介 荒木
coordinate descent 法について
coordinate descent 法について
京都大学大学院情報学研究科数理工学専攻
バンディット問題について
バンディット問題について
jkomiyama
A summary on “On choosing and bounding probability metrics”
A summary on “On choosing and bounding probability metrics”
Kota Matsui
SIGMOD 2019 参加報告
SIGMOD 2019 参加報告
Masafumi Oyamada
整数計画法に基づく説明可能性な機械学習へのアプローチ
整数計画法に基づく説明可能性な機械学習へのアプローチ
Kentaro Kanamori
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
ぱんいち すみもと
はじパタ8章 svm
はじパタ8章 svm
tetsuro ito
グラフネットワーク〜フロー&カット〜
グラフネットワーク〜フロー&カット〜
HCPC: 北海道大学競技プログラミングサークル
20140204はじパタlt
20140204はじパタlt
tetsuro ito
はじめてのパターン認識勉強会 20130716
はじめてのパターン認識勉強会 20130716
Hiroko Onari
Weitere ähnliche Inhalte
Was ist angesagt?
関数データ解析の概要とその方法
関数データ解析の概要とその方法
Hidetoshi Matsui
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII
はじぱた7章F5up
はじぱた7章F5up
Tyee Z
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
ohken
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
Deep Learning JP
「いい検索」を考える
「いい検索」を考える
Shuryo Uchida
データサイエンティストの仕事とデータ分析コンテスト
データサイエンティストの仕事とデータ分析コンテスト
Ken'ichi Matsui
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
Satoshi Hara
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性
Shiga University, RIKEN
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
Taiji Suzuki
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
諒介 荒木
coordinate descent 法について
coordinate descent 法について
京都大学大学院情報学研究科数理工学専攻
バンディット問題について
バンディット問題について
jkomiyama
A summary on “On choosing and bounding probability metrics”
A summary on “On choosing and bounding probability metrics”
Kota Matsui
SIGMOD 2019 参加報告
SIGMOD 2019 参加報告
Masafumi Oyamada
整数計画法に基づく説明可能性な機械学習へのアプローチ
整数計画法に基づく説明可能性な機械学習へのアプローチ
Kentaro Kanamori
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
ぱんいち すみもと
はじパタ8章 svm
はじパタ8章 svm
tetsuro ito
グラフネットワーク〜フロー&カット〜
グラフネットワーク〜フロー&カット〜
HCPC: 北海道大学競技プログラミングサークル
Was ist angesagt?
(20)
関数データ解析の概要とその方法
関数データ解析の概要とその方法
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
はじぱた7章F5up
はじぱた7章F5up
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
「いい検索」を考える
「いい検索」を考える
データサイエンティストの仕事とデータ分析コンテスト
データサイエンティストの仕事とデータ分析コンテスト
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
coordinate descent 法について
coordinate descent 法について
バンディット問題について
バンディット問題について
A summary on “On choosing and bounding probability metrics”
A summary on “On choosing and bounding probability metrics”
SIGMOD 2019 参加報告
SIGMOD 2019 参加報告
整数計画法に基づく説明可能性な機械学習へのアプローチ
整数計画法に基づく説明可能性な機械学習へのアプローチ
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
はじパタ8章 svm
はじパタ8章 svm
グラフネットワーク〜フロー&カット〜
グラフネットワーク〜フロー&カット〜
Andere mochten auch
20140204はじパタlt
20140204はじパタlt
tetsuro ito
はじめてのパターン認識勉強会 20130716
はじめてのパターン認識勉強会 20130716
Hiroko Onari
オイラーの公式で感じる次元の呪い
オイラーの公式で感じる次元の呪い
Yoshiteru Kamiyama
はじパタ2nd 20130702 otanet
はじパタ2nd 20130702 otanet
博三 太田
はじパタLT2
はじパタLT2
Tadayuki Onishi
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
Prunus 1350
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight Maps
Takao Yamanaka
Andere mochten auch
(7)
20140204はじパタlt
20140204はじパタlt
はじめてのパターン認識勉強会 20130716
はじめてのパターン認識勉強会 20130716
オイラーの公式で感じる次元の呪い
オイラーの公式で感じる次元の呪い
はじパタ2nd 20130702 otanet
はじパタ2nd 20130702 otanet
はじパタLT2
はじパタLT2
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight Maps
Ähnlich wie はじパタ2章
TechTarget新サービス
TechTarget新サービス
リード研究所 / Lead Lab
Alteryxの中級者向けトレーニングコース始めます!
Alteryxの中級者向けトレーニングコース始めます!
Yuji Kanemoto
カルマンフィルタ入門
カルマンフィルタ入門
Yasunori Nihei
データサイエンティスト協会スキル委員会2ndシンポジウム講演資料
データサイエンティスト協会スキル委員会2ndシンポジウム講演資料
The Japan DataScientist Society
Markezine チラ見せ用
Markezine チラ見せ用
Shinya Nakazawa
20171201 deep learning lab albert
20171201 deep learning lab albert
Hirono Jumpei
自己紹介にかえて-変化する企業ITと“ワクワク感” 桑原里恵
自己紹介にかえて-変化する企業ITと“ワクワク感” 桑原里恵
Sapporo Sparkle k.k.
東北大学AIE - 機械学習入門編
東北大学AIE - 機械学習入門編
Daiyu Hatakeyama
『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいもの
『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいもの
Takashi J OZAKI
20180627 - DEEP LEARNING LAB / Cognitive Services 最新情報 30 分でズバリ!
20180627 - DEEP LEARNING LAB / Cognitive Services 最新情報 30 分でズバリ!
Takashi Okawa
[db analytics showcase Sapporo 2018] B32 無いなら作ろう!教師データ作成のあれこれ
[db analytics showcase Sapporo 2018] B32 無いなら作ろう!教師データ作成のあれこれ
Insight Technology, Inc.
tut_pfi_2012
tut_pfi_2012
Preferred Networks
Data-Centric AIの紹介
Data-Centric AIの紹介
Kazuyuki Miyazawa
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
Shunsuke Nakamura
Markezine day 2012 gdo nakazawa
Markezine day 2012 gdo nakazawa
Shinya Nakazawa
ITエンジニアのためのAI基礎2020
ITエンジニアのためのAI基礎2020
Keisuke Tameyasu
分析のリアルがここに!現場で使えるデータ分析(1限目) 先生:吉永 恵一
分析のリアルがここに!現場で使えるデータ分析(1限目) 先生:吉永 恵一
schoowebcampus
Big data解析ビジネス
Big data解析ビジネス
Mie Mori
経済を理解する数字の見方、上司が見たい数字の見せ方
経済を理解する数字の見方、上司が見たい数字の見せ方
MKT International Inc.
SEGA : Growth hacking by Spark ML for Mobile games
SEGA : Growth hacking by Spark ML for Mobile games
DataWorks Summit/Hadoop Summit
Ähnlich wie はじパタ2章
(20)
TechTarget新サービス
TechTarget新サービス
Alteryxの中級者向けトレーニングコース始めます!
Alteryxの中級者向けトレーニングコース始めます!
カルマンフィルタ入門
カルマンフィルタ入門
データサイエンティスト協会スキル委員会2ndシンポジウム講演資料
データサイエンティスト協会スキル委員会2ndシンポジウム講演資料
Markezine チラ見せ用
Markezine チラ見せ用
20171201 deep learning lab albert
20171201 deep learning lab albert
自己紹介にかえて-変化する企業ITと“ワクワク感” 桑原里恵
自己紹介にかえて-変化する企業ITと“ワクワク感” 桑原里恵
東北大学AIE - 機械学習入門編
東北大学AIE - 機械学習入門編
『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいもの
『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいもの
20180627 - DEEP LEARNING LAB / Cognitive Services 最新情報 30 分でズバリ!
20180627 - DEEP LEARNING LAB / Cognitive Services 最新情報 30 分でズバリ!
[db analytics showcase Sapporo 2018] B32 無いなら作ろう!教師データ作成のあれこれ
[db analytics showcase Sapporo 2018] B32 無いなら作ろう!教師データ作成のあれこれ
tut_pfi_2012
tut_pfi_2012
Data-Centric AIの紹介
Data-Centric AIの紹介
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
Markezine day 2012 gdo nakazawa
Markezine day 2012 gdo nakazawa
ITエンジニアのためのAI基礎2020
ITエンジニアのためのAI基礎2020
分析のリアルがここに!現場で使えるデータ分析(1限目) 先生:吉永 恵一
分析のリアルがここに!現場で使えるデータ分析(1限目) 先生:吉永 恵一
Big data解析ビジネス
Big data解析ビジネス
経済を理解する数字の見方、上司が見たい数字の見せ方
経済を理解する数字の見方、上司が見たい数字の見せ方
SEGA : Growth hacking by Spark ML for Mobile games
SEGA : Growth hacking by Spark ML for Mobile games
Mehr von tetsuro ito
[Up用]rでqr
[Up用]rでqr
tetsuro ito
20170912 data analyst meetup tokyo vol.5
20170912 data analyst meetup tokyo vol.5
tetsuro ito
DataOps in Moneyforward
DataOps in Moneyforward
tetsuro ito
20170207 bigdata analytics_tokyo講演資料
20170207 bigdata analytics_tokyo講演資料
tetsuro ito
20161029 dots machine learning in money forward
20161029 dots machine learning in money forward
tetsuro ito
20160906 bq sushi
20160906 bq sushi
tetsuro ito
TokyoR LT Rで連続データを離散化
TokyoR LT Rで連続データを離散化
tetsuro ito
20150531分析プラットホームとその技術(bizreach) cookpad ito #dcube_analysis
20150531分析プラットホームとその技術(bizreach) cookpad ito #dcube_analysis
tetsuro ito
20150303続パタ5章後半
20150303続パタ5章後半
tetsuro ito
PRML読書会1スライド(公開用)
PRML読書会1スライド(公開用)
tetsuro ito
20140614 tokyo r lt
20140614 tokyo r lt
tetsuro ito
20140329 tokyo r lt 「カーネルとsvm」
20140329 tokyo r lt 「カーネルとsvm」
tetsuro ito
Japan.r 2013 「実ビジネスデータへのrの活用とその限界」
Japan.r 2013 「実ビジネスデータへのrの活用とその限界」
tetsuro ito
Tokyo R LT 20131109
Tokyo R LT 20131109
tetsuro ito
第31回TokyoR LT資料
第31回TokyoR LT資料
tetsuro ito
集合知プログラミング5章発表
集合知プログラミング5章発表
tetsuro ito
集合知プログラミング11章
集合知プログラミング11章
tetsuro ito
集合知プログラミング勉強会キックオフMTG LT用資料
集合知プログラミング勉強会キックオフMTG LT用資料
tetsuro ito
20120326 zansa勉強会発表資料 (公開用) 02 04-38
20120326 zansa勉強会発表資料 (公開用) 02 04-38
tetsuro ito
複雑ネットワーク勉強会 第6章 後半
複雑ネットワーク勉強会 第6章 後半
tetsuro ito
Mehr von tetsuro ito
(20)
[Up用]rでqr
[Up用]rでqr
20170912 data analyst meetup tokyo vol.5
20170912 data analyst meetup tokyo vol.5
DataOps in Moneyforward
DataOps in Moneyforward
20170207 bigdata analytics_tokyo講演資料
20170207 bigdata analytics_tokyo講演資料
20161029 dots machine learning in money forward
20161029 dots machine learning in money forward
20160906 bq sushi
20160906 bq sushi
TokyoR LT Rで連続データを離散化
TokyoR LT Rで連続データを離散化
20150531分析プラットホームとその技術(bizreach) cookpad ito #dcube_analysis
20150531分析プラットホームとその技術(bizreach) cookpad ito #dcube_analysis
20150303続パタ5章後半
20150303続パタ5章後半
PRML読書会1スライド(公開用)
PRML読書会1スライド(公開用)
20140614 tokyo r lt
20140614 tokyo r lt
20140329 tokyo r lt 「カーネルとsvm」
20140329 tokyo r lt 「カーネルとsvm」
Japan.r 2013 「実ビジネスデータへのrの活用とその限界」
Japan.r 2013 「実ビジネスデータへのrの活用とその限界」
Tokyo R LT 20131109
Tokyo R LT 20131109
第31回TokyoR LT資料
第31回TokyoR LT資料
集合知プログラミング5章発表
集合知プログラミング5章発表
集合知プログラミング11章
集合知プログラミング11章
集合知プログラミング勉強会キックオフMTG LT用資料
集合知プログラミング勉強会キックオフMTG LT用資料
20120326 zansa勉強会発表資料 (公開用) 02 04-38
20120326 zansa勉強会発表資料 (公開用) 02 04-38
複雑ネットワーク勉強会 第6章 後半
複雑ネットワーク勉強会 第6章 後半
はじパタ2章
1.
はじめてのパターン認識 第2章 「識別規則と学習法の概要」 後半 2013/7/2 @リクルート
2.
あんた誰? 名前 伊藤 徹郎 (@tetsuroito) 所属 株式会社ALBERT データ分析部 好きなもの サッカー、スキー、オレオ!
3.
株式会社ALBERTについて 「分析力をコアとするマーケティングソリューションカンパニー」 ALBERTの事業領域 CRMソリューションの開発・提供 レコメンドエンジンの開発・提供 行動ターゲティング広告システムの 開発・提供 データサイエンティスト、エンジニア大募集中です! 一緒にデータサイエンスしませんか?
4.
では、本題 2.2 汎化能力とは?
5.
2.2 汎化能力とは? ちょっとおさらい 学習:学習データに対する識別関数の出力値と学習データとの誤差が最小に なるように、識別関数のパラメータを調整すること 未知のデータに対しての性能保証はなし! 学習データから動作確認のためにテストデータを除いて試そう! 汎化能力:未知データに対する識別能力 汎化誤差:未知データを識別した時の誤差
6.
学習データとテストデータ 手元にある学習データセットを分割してテストデータセットを作ります。 重さ 透磁率 etc‥ d個の特徴 d次元の特徴ベクトルの分布p 真の誤り率ε(p,p) 重さ 透磁率 etc‥ 10,000枚 8,000枚 2,000枚 母集団 学習データセット テストデータセット d個の特徴 d次元の特徴ベクトルの分布pL 再代入誤り率ε(pL,pL) d個の特徴重さ 透磁率 etc‥ d次元の特徴ベクトルの分布pT
7.
用語たち 母集団:先の事例では、全硬貨の集合(事例では10,000枚) 真の分布:母集団のd次元特徴の分布p バイアス:真の分布とランダムサンプルのズレ (平均値や分散など) 真の誤り率ε(p,p):真の分布pに従う学習データを用いて設計し、真の分布 pに従うテストデータを用いてテストしたときの誤り率 再代入誤り率:学習データを母集団からサンプルし、テストにも同じデータを 用いて測定した誤り率
8.
例題だよ 再代入誤り率が大きい場合、 どのような対処法が考えられ ますか?
9.
ANSWER 学習データに対する誤りが多いので、 識別機の能力が足りません。 何らかの方法で 識別機の性能をあげましょう!
10.
データの主な分割方法 1、ホールドアウト法(holdout法) 2、交差確認法(cross validation法) 3、一つ抜き法(leave-one-out法) (ジャックナイフ法) 4、ブートストラップ法(bootstrap法)
11.
1、ホールドアウト法 母集団 学習データ テストデータ ホールドアウト誤り率 分割の配分はご自由に ★欠点 学習データを増やす→学習精度は向上するが、性能評価がいまいち 検証データを増やす→学習精度が悪くなってしまう
12.
2、交差確認法 手元の各クラスのデータをm個に分割し、m-1個のグループのデータを使って 識別機を学習し、残りの1つで検証を行う方法です。これをm回繰り返し、 それらの誤り率の平均を性能予測値とします。 学習データテスト 学習データテスト 学習データ テスト m個に分割 m 回 識別率の予測値 全データを検証できるので、
13.
3、一つ抜き法(ジャックナイフ法) 交差確認法において、データの数とグループの数を等しくした場合のこと。 1つを除いたデータすべてのデータで学習し、除いた1つでテストすることを データ数分繰り返す。 またの名をジャックナイフ法ともいい、重複をしない分、計算効率がいいとか 悪いとか‥ なんかいまいちわからないので、 知ってる人、教えてください
14.
4、ブートストラップ法 再代入誤り率のバイアス補正に用いられる。 データ #1 データ #2 データ #3 ‥ データ #N-1 データ #N 復元抽出×N回 ブートストラップサンプル データ #3 データ #20 データ #1 ‥ データ #3 データ #5 N個 ブートストラップサンプルを最低50は生成し、それらによって得られる 誤認識率の差の平均値でバイアスを推定する!
15.
汎化能力の評価法とモデル選択 学習データでパラメータを調整して、テストデータで誤り率を評価しても 誤りが目標より小さくならないという場面ありますね。 この場合はどうしようもないので、識別関数を変えましょう。
16.
モデル選択 変えると言っても、方法はたくさんあります! ・線形識別関数→非線形識別関数に変える ・多項式のパラメータの数(次数)を変える etc‥ パラメータの数を変え、テストデータに対する誤り率が最も小さくなる パラメータを選択する方法をモデル選択と言います このように‥
17.
具体例:多項式回帰で あるノイズが乗った多項式から等間隔にサンプルされたデータに多項式近似を 行います。 f(x)=0.5+0.4sin(2πx)+ε=h(x)+ε N~(ε|0,0.05) 11個の学習データから信号成分h(x)を取り出す! 信号成分h(x)との近似の良さは平均2乗誤差(MSE)で表す テキストでは、1次、3次、6次、10次多項式で近似している
18.
多項式近似の例 データから大きく外れている(バイアスが大きい) ノイズに惑わされず信号成分をよく近似 バイアスも小さく、分散も小さい 6次になると、ノイズを追うようになる 10次は完全にノイズを追ってしまう
19.
バイアス・分散トレードオフ 関数が複雑になるほど学習データに対する近似能力は向上する (学習データに対するバイアス小さいが、分散が大きい) このように バイアスを小さくすれば分散が大きくなり、逆に分散を小さく すれば、バイアスが大きくなる現象をバイアス・分散トレードオフ という 汎化能力を決める大きな要因となる!
20.
過学習(オーバーフィッティング) 先の事例のように、多項式の次数を大きくすると個々のノイズ成分を追従する ようになるので、学習誤差が単調に減少します。 このような事象を過学習と言います。 ※深堀したい人はぜひPRML上巻1章の多項式フィッティングを読もう!
21.
識別関数の最適選択 多項式の最適次数選択は先ほどの説明の通りです。 同様に、識別関数でも同様に考えることができます。 識別関数y=f(x;w)のf()の形やwの要素数を変化させ、交差確認法やブートスト ラップ法によって汎化誤差を推定します。 データの分布に統計モデルを仮定する場合 AIC(赤池情報量基準)やBIC(ベイズ情報量基準)、MDL(最小距離基準) などを使って解析的に汎化誤差を評価し、モデル選択をします。 詳細は自分で調べてね!
22.
章末問題は省略するね
23.
最後に大事なので もう1回言います あっ!
24.
データサイエンティスト、エンジニア大募集中です! 一緒にデータサイエンスしませんか?
25.
おわり ご清聴ありがとうございました!
Jetzt herunterladen