SlideShare ist ein Scribd-Unternehmen logo
1 von 45
Downloaden Sie, um offline zu lesen
人工知能 第5回
機械学習の基礎
2018年5月18日 八谷 大岳
1
機械学習とは
2
 データから知識・ルールを獲得する統計的学習アルゴリズム
 人が知識やルールを明示的に与える方法の限界から生まれた
 2000年頃から統計的学習技術の研究が盛んに行われてきた
 2012年頃からビッグデータブームと、Deep learningの登場で、
機械学習の分野を超えて一躍注目を集め始める
人物
非人物
学習データ 機械学習
人物と非人物を識別する
知識・ルール
機械学習と人工知能の関係
3
 機械学習:人工知能の研究分野の一つ
 人間の知識の活用よりも、データからの知識・ルールの獲得を重視
 「データマイニング」、「パターン認識」とアプローチ・目的が類似
人工知能
Artificial Intelligence
知識
機械学習
Machine Learning
線形判別
K-means
主成分分析
重回帰分析
ナイーブベイズ
強化学習
決定木
SVM
Random forest
HMM&CRF
AdaBoost
Gaussian processGMM
Topic model
LSTM
GAN
CNN
RNN Auto-encoder
Adam
T-SNE
ReLU
binaryNet
Batchnormalization
データ
深層学習
Deep Learning
ニューラルネット
LSTM
GAN
CNN
RNN Auto-encoder
Adam
ReLU
binaryNet
Batchnormalization
パターン認識
データマイニング
データ分析と機械学習手法の関係
4
 統計的学習アルゴリズムを用いる目的によって、呼ばれ方が異なる
 機械学習:予測、戦略獲得
 データ分析:分析、調査、発見
予
測
分
析
データ分析
手法
機械学習
手法
「人工知能」の講義で紹介
「データ解析」の講義で紹介
【統計的学習
アルゴリズム】
単回帰
線形判別
K-means
主成分分析
重回帰
ナイーブ
ベイズ
ニューラルネット
強化学習
決定木
SVM
Random forest
HMM&CRF
AdaBoost
CNN&LSTM
Gaussian process
Topic model
GMM
データ
機械学習の実用例1
 画像領域分割
 各画素を人、空、木、草、建物カテゴリに分類
 より綺麗な写真を撮るために、
領域の種類に合わせて適切な画像処理を適用
 空の明度を抑えて、人の明度を上げるなど
 顔認証
 登録された顔画像と比較して同一人物か否かを分類する
 NEC・NeoFace:コンサートのチケットレス入場や会社の入退室管理
 LYKAON:万引き犯の顔画像と一致する人が入店時に店員に通知
顔認証によるコンサートの入場チェック(NEC・TAPIRIS) 顔認証して店員に通知(LYKAON)
空、人の領域を特定
5
機械学習の実用例2
 手書き文字認識
 郵便番号を自動認識し、はがきを自動仕分け(ゆうびん自動化機)
 1時間に4万通の郵便番号を認識し、地域ごとの仕分けが可能
 さらに、番地や部屋番号まで認識し、配達しやすい順番に並べ替え可能
6
https://jpn.nec.com/kids/himitsu/04.html
内容
7
 機械学習とは
 機械学習の実用例
 機械学習が急速に広まった理由
 講義の概要
 確率の復習
 確率の定義と条件付き確率
 期待値の定義と性質
 ベイズの定理と事後確率
 最適化手法の復習
 微分の定義と最急降下法
機械学習が急速に広まった理由1
8
 現在、あらゆる分野で大量のデータが生成されている
 分野ごとに機械学習のアルゴリズムを作るのは大変
 各分野のデータを特徴ベクトル(数値ベクトル)に変換
 問題や分野の垣根を越えて共通の機械学習を適用できる
学習データ
特徴量ベクトル 機械学習
機械学習が急速に広まった理由2
 近年、機械学習のDeep Learningが数多くのタスク(画像認識、
顔認識、行動認識など)で従来の技術を凌駕
 大規模画像分類Imagenet で、従来の画像認識技術に
10%の大差で優勝
Team name Error
1 SuperVision 0.153
2 ISI (SHIFT+FV,
LBP+FVなど)
0.262
3 OXFORD_VGG 0.270
4 XRCE/INRIA 0.271
5 Univ. of Amsterdam 0.296
【2012年の結果】
10%の差
Team name Error
1 VGG 0.074
2 GoogLeNet 0.148
3 SYSU_Vision 0.319
4 MIL 0.337
5 MSRA Visual
Computing
0.355
【2014年の結果】
上位は全部深層学習
分類誤差:7%まで低減!
黒色:従来の画像認識
赤色:Deep Learning
9
機械学習が急速に広まった理由3
10
 無料のライブラリが拡充
 scikit-learn, Tensorflow, Caffe, chainer, libsvm, SVMlight,…
 特徴量の設計さえできれば誰でも一般的な機械学習を適用できる時代
 しかし、使いこなすためには機械学習の知識が必要
 機械学習は数学の異種格闘技
 確率統計、線形代数、微積分、情報理論および最適化
5階層のConvolutional neural networkが
数十行のPythonコードで実装できるようになった
講義内容
11
機械学習のアルゴリズム
機械学習の概要と、必要な数学の復習
レポートの提出方法
12
 演習レポートの提出方法:
 タイトル「演習レポート」、日付・学生番号・氏名を用紙の一番上に記載
 課題レポート の提出方法:
 タイトル「課題レポート」、出題日・学生番号・氏名を用紙の一番上に記載
 2ページ以上になる場合は、ホッチキス留め
 A4サイズの用紙を使用
 一度に複数の課題レポートを提出する場合出題日ごとに別々に綴じる
内容
13
 機械学習とは
 機械学習の実用例
 機械学習が急速に広まった理由
 講義の概要
 確率統計の復習
 確率の定義、条件付き確率、乗法定理
 期待値の定義と性質
 ベイズの定理と事後確率
 最適化手法の復習
 微分・偏微分の定義
 最急降下法
確率の定義
14
 試行:繰り返すことができて、結果が偶然に決まる実験や観察
 事象:試行の結果起こる事柄
 標本空間:試行の結果起こりうる全ての事柄の集合
 確率の定義:標本空間の大きさを𝑁𝑁、事象𝑥𝑥𝑗𝑗の起こる場合の数
を𝑁𝑁𝑗𝑗とすると、事象𝑥𝑥𝑗𝑗が起こる確率
𝑃𝑃𝑋𝑋 𝑋𝑋 = 𝑥𝑥𝑗𝑗 = 𝑃𝑃𝑋𝑋 𝑥𝑥𝑗𝑗 =
𝑁𝑁𝑗𝑗
𝑁𝑁
𝑋𝑋:確率変数 𝑥𝑥𝑗𝑗:事象(または事象に対応する実現値)
サイコロを振る
2の目が出る
1の目が出る、2の目が出る、…、6の目が出る
𝑃𝑃𝑋𝑋 𝑋𝑋 = 2の目が出る = 𝑃𝑃𝑋𝑋 𝑋𝑋 = 2 = 1/6
6の目が出る
𝑃𝑃𝑋𝑋 X :確率分布関数
単なる関数の記号
𝑓𝑓 X , 𝑔𝑔 X 等何でもよい
確率の例
15
 試行:「ボールを箱から取り出す」
 事象:「赤のボールが出る」
 標本空間:「青のボールが出る」、「赤のボールが出る」
 事象「青のボールが出る」の確率:𝑃𝑃𝑋𝑋 𝑥𝑥1 =
𝑁𝑁1
𝑁𝑁
=
6
14
=
3
7
 事象「赤のボールが出る」の確率:𝑃𝑃𝑋𝑋 𝑥𝑥2 =
𝑁𝑁2
𝑁𝑁
=
8
14
=
4
7
 全ての事象の確率の和は1:𝑃𝑃𝑋𝑋 𝑥𝑥1 + 𝑃𝑃𝑋𝑋 𝑥𝑥2 =
3
7
+
4
7
=1
標本空間𝑆𝑆
確率変数𝑋𝑋(ボールの色)
𝑥𝑥1:青 𝑥𝑥2:赤
6 8
赤の場合の数𝑁𝑁2箱
標本空間𝑆𝑆の大きさ: 𝑁𝑁 = 14
青の場合の数𝑁𝑁1
同時確率
16
 同時確率:事象𝑦𝑦𝑖𝑖と事象𝑥𝑥𝑗𝑗が同時に起こる確率
標本空間𝑆𝑆
確率変数𝑋𝑋(ボールの色)
確率変数𝑌𝑌
(グループの種類)
𝑥𝑥1:青 𝑥𝑥2:赤
𝑦𝑦1: グループ1 5
1
2
6
𝑃𝑃𝑌𝑌𝑌𝑌 𝑦𝑦𝑖𝑖, 𝑥𝑥𝑗𝑗 =
𝑁𝑁𝑖𝑖𝑖𝑖
𝑁𝑁
箱
グループ1 グループ2
𝑦𝑦2: グループ2
グループ1の赤が選ばれる確率(同時確率)
𝑃𝑃𝑌𝑌𝑌𝑌 𝑌𝑌 = 𝑦𝑦1, 𝑋𝑋 = 𝑥𝑥2 =
𝑁𝑁12
𝑁𝑁
=
2
14
=
1
7
グループ1の赤の
場合の数𝑁𝑁12
確率変数が2つ
𝑖𝑖:行のインデックス
𝑗𝑗:列のインデックス
条件付き確率
17
 条件付き確率:事象𝑦𝑦𝑖𝑖が起きた条件下で事象𝑥𝑥𝑗𝑗が起こる確率
𝑃𝑃𝑋𝑋|𝑌𝑌 𝑥𝑥𝑗𝑗|𝑦𝑦𝑖𝑖 =
𝑁𝑁𝑖𝑖𝑖𝑖
𝑁𝑁𝑖𝑖�
標本空間𝑆𝑆
確率変数𝑋𝑋(ボールの色)
確率変数𝑌𝑌
(グループの種類)
𝑥𝑥1:青 𝑥𝑥2:赤
𝑦𝑦1: グループ1 5
1
2
6
箱
グループ1 グループ2
𝑦𝑦2: グループ2
グループ1の赤の
場合の数𝑁𝑁12
グループ1が選択された条件下で赤が選ばれる確率(条件付き確率)
𝑃𝑃𝑋𝑋|𝑌𝑌 𝑋𝑋 = 𝑥𝑥2|𝑌𝑌 = 𝑦𝑦1 =
𝑁𝑁12
𝑁𝑁1�
=
2
7
グループ1の
場合の数𝑁𝑁1�
確率変数が2つ
𝑁𝑁𝑖𝑖�:𝑖𝑖行の場合の数の合計
乗法定理
18
 乗法定理:同時確率と条件付き確率との関係
標本空間𝑆𝑆
確率変数𝑋𝑋(ボールの色)
確率変数𝑌𝑌
(グループの種類)
𝑥𝑥1:青 𝑥𝑥2:赤
𝑦𝑦1: グループ1 5
1
2
6
箱
グループ1 グループ2
𝑦𝑦2: グループ2
グループ1の赤が選択される確率
𝑃𝑃𝑌𝑌|𝑋𝑋 𝑌𝑌 = 𝑦𝑦1, 𝑋𝑋 = 𝑥𝑥2 = 𝑃𝑃𝑋𝑋|𝑌𝑌 𝑥𝑥2 𝑦𝑦1 𝑃𝑃𝑌𝑌 𝑦𝑦𝑖𝑖 =
𝑁𝑁12
𝑁𝑁1�
𝑁𝑁1�
𝑁𝑁
=
2
7
7
14
=
1
7
𝑃𝑃𝑌𝑌𝑌𝑌 𝑦𝑦𝑖𝑖, 𝑥𝑥𝑗𝑗 = 𝑃𝑃𝑋𝑋|𝑌𝑌 𝑥𝑥𝑗𝑗 𝑦𝑦𝑖𝑖 𝑃𝑃𝑌𝑌 𝑦𝑦𝑖𝑖
グループ1の赤の
場合の数𝑁𝑁12
グループ1の
場合の数𝑁𝑁1�
確率変数が2つ
周辺確率と加法定理
19
 周辺確率:事象𝑦𝑦に関係なく事象𝑥𝑥𝑗𝑗が起こる確率
標本空間𝑆𝑆
確率変数𝑋𝑋(ボールの色)
確率変数𝑌𝑌
(グループの種類)
𝑥𝑥1:青 𝑥𝑥2:赤
𝑦𝑦1: グループ1 5
1
2
6
箱
グループ1 グループ2
𝑦𝑦2: グループ2
グループに関係なく赤が選ばれる確率(周辺確率)
𝑃𝑃𝑋𝑋 𝑋𝑋 = 𝑥𝑥2 =
𝑁𝑁�2
𝑁𝑁
=
8
14
=
4
7
𝑃𝑃𝑋𝑋 𝑥𝑥𝑗𝑗 =
𝑁𝑁�𝑗𝑗
𝑁𝑁
= �
𝑖𝑖
𝑃𝑃𝑌𝑌𝑋𝑋 𝑦𝑦𝑖𝑖, 𝑥𝑥𝑗𝑗
事象𝑦𝑦との同時確率の足し合わ
せと等しい(加法定理)
確率変数が2つ
𝑁𝑁�𝑗𝑗:𝑗𝑗列の場合の数の合計
演習1
20
1. 条件付き確率𝑃𝑃𝑋𝑋|𝑌𝑌 𝑋𝑋 = 𝑥𝑥1|𝑌𝑌 = 𝑦𝑦2 を求めなさい
2. 周辺確率𝑃𝑃𝑌𝑌 𝑌𝑌 = 𝑦𝑦2 を求めなさい
3. 同時確率の定義から、以下の乗法定理を導出しなさい。
𝑃𝑃𝑌𝑌𝑌𝑌 𝑦𝑦𝑖𝑖, 𝑥𝑥𝑗𝑗 = 𝑃𝑃𝑋𝑋|𝑌𝑌 𝑥𝑥𝑗𝑗 𝑦𝑦𝑖𝑖 𝑃𝑃𝑌𝑌 𝑦𝑦𝑖𝑖
5. 乗法定理を用いて同時確率𝑃𝑃𝑌𝑌|𝑋𝑋 𝑌𝑌 = 𝑦𝑦2, 𝑋𝑋 = 𝑥𝑥1 を求めなさい
 タイトル「演習レポート」、日付、学生番号、氏名を用紙の一番上に記載
標本空間𝑆𝑆
確率変数𝑋𝑋(ボールの色)
確率変数𝑌𝑌
(グループの種類)
𝑥𝑥1:青 𝑥𝑥2:赤
𝑦𝑦1: グループ1 5
1
2
6
箱
グループ1 グループ2 𝑦𝑦2: グループ2
確率変数が2つ
内容
23
 機械学習とは
 機械学習の実用例
 機械学習が急速に広まった理由
 講義の概要
 確率統計の復習
 確率の定義、条件付き確率、乗法定理
 期待値の定義と性質
 ベイズの定理と事後確率
 最適化手法の復習
 微分・偏微分の定義
 最急降下法
期待値の定義(離散の場合)
24
 確率変数𝑋𝑋の期待値:
 確率変数𝑋𝑋の取りうる全ての実現値𝑥𝑥𝑗𝑗とその確率𝑃𝑃 𝑥𝑥𝑗𝑗 の積和
 2つの確率変数の和の期待値:
 各変数𝑌𝑌、𝑋𝑋の取りうる全ての実現値𝑦𝑦𝑖𝑖、𝑥𝑥𝑗𝑗とその同時確率𝑃𝑃 𝑦𝑦𝑖𝑖, 𝑥𝑥𝑗𝑗 の積和
E
𝑃𝑃 𝑋𝑋(𝑋𝑋)
𝑋𝑋 = �
𝑗𝑗
𝑥𝑥𝑗𝑗 𝑃𝑃𝑋𝑋 𝑋𝑋 = 𝑥𝑥𝑗𝑗
E
𝑃𝑃𝑌𝑌𝑌𝑌(𝑌𝑌,𝑋𝑋)
𝑌𝑌 + 𝑋𝑋 = ∑𝑖𝑖 ∑𝑗𝑗 𝑦𝑦𝑖𝑖 + 𝑥𝑥𝑗𝑗 𝑃𝑃𝑌𝑌𝑌𝑌 𝑦𝑦𝑖𝑖, 𝑥𝑥𝑗𝑗
乗法定理
E
𝑃𝑃 𝑋𝑋(𝑋𝑋)
𝑋𝑋
確率変数
確率分布関数
期待値の記号
(Expectation)
E
𝑃𝑃𝑌𝑌(𝑌𝑌)
𝑃𝑃 𝑋𝑋|𝑌𝑌(𝑋𝑋|𝑌𝑌)
𝑌𝑌 + 𝑋𝑋 = ∑𝑖𝑖 ∑𝑗𝑗 𝑦𝑦𝑖𝑖 + 𝑥𝑥𝑗𝑗 𝑃𝑃𝑋𝑋|𝑌𝑌 𝑥𝑥𝑗𝑗|𝑦𝑦𝑖𝑖 𝑃𝑃𝑌𝑌 𝑦𝑦𝑖𝑖
平均値と期待値
25
 平均値の定義:
 例:学生の英語の点数が 50,80,60,40,60 の場合の平均値:
 平均値はデータの数に依存して変化:
 データが無限にある場合は?
 つまり、平均値は期待値の近似(期待値≈平均値)
𝜇𝜇 = ̅𝑥𝑥 =
1
𝑁𝑁
�
𝑡𝑡=1
𝑁𝑁
𝑥𝑥𝑡𝑡
𝑁𝑁 → ∞
𝑥𝑥1
𝑛𝑛1
𝑁𝑁
+𝑥𝑥2
𝑛𝑛2
𝑁𝑁
+ ⋯
𝑛𝑛𝑗𝑗:実現値𝑥𝑥𝑗𝑗の出現回数
�
𝑗𝑗
𝑥𝑥𝑗𝑗 𝑃𝑃𝑋𝑋 𝑥𝑥𝑗𝑗 = E
𝑃𝑃 𝑋𝑋(𝑋𝑋)
[𝑋𝑋]
𝜇𝜇 =
1
5
50 + 80 + 60 + 40 + 60 = 58
𝑁𝑁:データ数
𝜇𝜇 =
1
6
50 + 80 + 60 + 40 + 60 + 100 = 65
1
𝑁𝑁
�
𝑡𝑡=1
𝑁𝑁
𝑥𝑥𝑡𝑡
確率の定義𝑃𝑃𝑋𝑋 𝑋𝑋 = 𝑥𝑥𝑗𝑗
𝑥𝑥𝑡𝑡
:𝑡𝑡番目(時刻𝑡𝑡 )のデータ点
実現値とは異なるので注意
演習2
26
1. 青を取ると2点、赤を取ると1点とすると、箱からランダムに
ボールを1つ取り出した時の点数の期待値を求めなさい。
2. ボールを1つ取り出し、箱に戻す試行を100回繰り返した
ところ、青が40回、赤が60回ずつ出ました。点数の平均値
求めなさい。
 タイトル「演習レポート」、日付、学生番号、氏名を用紙の
一番上に記載
箱
E
𝑃𝑃 𝑋𝑋(𝑋𝑋)
𝑋𝑋 = �
𝑗𝑗
𝑥𝑥𝑗𝑗 𝑃𝑃𝑋𝑋 𝑋𝑋 = 𝑥𝑥𝑗𝑗
期待値の基本的な性質
28
 定数および独立な確率変数は期待値の外に出すことができる
 定数の例:
 独立な確率変数の例:
E
𝑃𝑃 𝑋𝑋(𝑋𝑋)
𝑎𝑎𝑋𝑋 + 𝑏𝑏 = 𝑎𝑎 E
𝑃𝑃 𝑋𝑋(𝑋𝑋)
𝑋𝑋 + 𝑏𝑏
E
𝑃𝑃𝑌𝑌(𝑌𝑌)
𝑃𝑃 𝑋𝑋|𝑌𝑌(𝑋𝑋|𝑌𝑌)
𝑌𝑌 + 𝑋𝑋 = E
𝑃𝑃𝑌𝑌(𝑌𝑌)
𝑌𝑌 + E
𝑃𝑃 𝑋𝑋|𝑌𝑌(𝑋𝑋|𝑌𝑌)
𝑋𝑋
E
𝑃𝑃 𝑋𝑋(𝑋𝑋)
𝑎𝑎𝑋𝑋 + 𝑏𝑏 = �
𝑗𝑗
𝑎𝑎𝑥𝑥𝑗𝑗 + 𝑏𝑏 𝑃𝑃 𝑥𝑥𝑗𝑗 = 𝑎𝑎 �
𝑗𝑗
𝑥𝑥𝑗𝑗 𝑃𝑃 𝑥𝑥𝑗𝑗 + 𝑏𝑏 �
𝑗𝑗
𝑃𝑃 𝑥𝑥𝑗𝑗
=𝑎𝑎 E
𝑃𝑃 𝑋𝑋(𝑋𝑋)
𝑋𝑋 + 𝑏𝑏 全ての事象の確率の和=1
演習3
29
 以下の等式が成り立つことを証明しなさい。
 タイトル「演習レポート」、日付、学生番号、氏名を用紙の一
番上に記載
E
𝑃𝑃𝑌𝑌(𝑌𝑌)
𝑃𝑃 𝑋𝑋|𝑌𝑌(𝑋𝑋|𝑌𝑌)
𝑌𝑌 + 𝑋𝑋 = E
𝑃𝑃𝑌𝑌(𝑌𝑌)
𝑌𝑌 + E
𝑃𝑃 𝑋𝑋|𝑌𝑌(𝑋𝑋|𝑌𝑌)
𝑋𝑋
課題1
31
1. 条件付き確率𝑃𝑃𝑋𝑋|𝑌𝑌 𝑋𝑋 = 𝑥𝑥2|𝑌𝑌 = 𝑦𝑦2 を求めなさい
2. 周辺確率𝑃𝑃𝑌𝑌 𝑌𝑌 = 𝑦𝑦2 を求めなさい
3. 乗法定理の定義式を書き、同時確率𝑃𝑃𝑌𝑌|𝑋𝑋 𝑌𝑌 = 𝑦𝑦2, 𝑋𝑋 = 𝑥𝑥2 を
求めなさい
4. 周辺確率の定義から、以下の加法定理を導出しなさい
𝑃𝑃𝑋𝑋 𝑥𝑥𝑗𝑗 = �
𝑖𝑖
𝑃𝑃𝑌𝑌𝑌𝑌 𝑦𝑦𝑖𝑖, 𝑥𝑥𝑗𝑗
標本空間𝑆𝑆
確率変数𝑋𝑋(ボールの色)
確率変数𝑌𝑌
(グループの種類)
𝑥𝑥1:青 𝑥𝑥2:赤
𝑦𝑦1: グループ1 3
4
4
3
箱
グループ1 グループ2
𝑦𝑦2: グループ2
確率変数が2つ
課題2
32
 以下の等式が成り立つことを証明しなさい。
 ただし、確率変数は、各時刻𝑡𝑡 = 0,1,2ごとに存在することとし、
それぞれ以下の確率分布関数に従うこととする。
E
𝑃𝑃𝐼𝐼(𝑋𝑋0)
𝑃𝑃𝑇𝑇(𝑋𝑋𝑡𝑡+1|𝑋𝑋𝑡𝑡)
�
𝑡𝑡=0
2
𝑅𝑅(𝑋𝑋𝑡𝑡) = E
𝑃𝑃𝐼𝐼(𝑋𝑋0)
𝑅𝑅(𝑋𝑋0) + E
𝑃𝑃𝑇𝑇(𝑋𝑋𝑡𝑡+1|𝑋𝑋𝑡𝑡)
�
𝑡𝑡=1
2
𝑅𝑅(𝑋𝑋𝑡𝑡)
𝑋𝑋0
:𝑃𝑃𝐼𝐼(𝑋𝑋0
) 𝑋𝑋1
:𝑃𝑃𝑇𝑇(𝑋𝑋1
|𝑋𝑋0
) 𝑋𝑋2
:𝑃𝑃𝑇𝑇(𝑋𝑋2
|𝑋𝑋1
)
𝑃𝑃𝐼𝐼(𝑋𝑋0
) :初期確率分布関数
𝑃𝑃𝑇𝑇(𝑋𝑋𝑡𝑡+1
|𝑋𝑋𝑡𝑡
) :遷移確率関数
�
𝑡𝑡=0
2
𝑅𝑅(𝑋𝑋𝑡𝑡
) = 𝑅𝑅(𝑋𝑋0
) + 𝑅𝑅(𝑋𝑋1
) + 𝑅𝑅(𝑋𝑋2
)和の記号:
𝑃𝑃𝐼𝐼 𝑋𝑋0
𝑥𝑥1
𝑥𝑥2
𝑥𝑥3
初期状態 𝑋𝑋0
𝑃𝑃𝑇𝑇(𝑋𝑋1
|𝑋𝑋0
)
𝑥𝑥1
𝑥𝑥2
𝑥𝑥3
状態 𝑋𝑋1
𝑃𝑃𝑇𝑇(𝑋𝑋2
|𝑋𝑋1
)
𝑥𝑥1
𝑥𝑥2
𝑥𝑥3
状態 𝑋𝑋2
E
𝑃𝑃𝐼𝐼(𝑋𝑋0)
𝑃𝑃𝑇𝑇(𝑋𝑋𝑡𝑡+1|𝑋𝑋𝑡𝑡)
�
𝑡𝑡=0
2
𝑅𝑅(𝑋𝑋𝑡𝑡) = E
𝑃𝑃𝐼𝐼(𝑋𝑋0)
𝑃𝑃𝑇𝑇(𝑋𝑋1|𝑋𝑋0)
𝑃𝑃𝑇𝑇(𝑋𝑋2|𝑋𝑋1)
�
𝑡𝑡=0
2
𝑅𝑅(𝑋𝑋𝑡𝑡)
内容
34
 機械学習とは
 機械学習の実用例
 機械学習が急速に広まった理由
 講義の概要
 確率統計の復習
 確率の定義、条件付き確率、乗法定理
 期待値の定義と性質
 ベイズの定理と事後確率
 最適化手法の復習
 微分・偏微分の定義
 最急降下法
乗法定理からベイズの定理へ
35
 乗法定理:同時確率と条件付き確率との関係
標本空間𝑆𝑆
確率変数𝑋𝑋(ボールの色)
確率変数𝑌𝑌
(グループの種類)
𝑥𝑥1:青 𝑥𝑥2:赤
𝑦𝑦1: グループ1 5
1
2
6
箱
グループ1 グループ2
𝑦𝑦2: グループ2
𝑃𝑃𝑌𝑌𝑌𝑌 𝑦𝑦𝑖𝑖, 𝑥𝑥𝑗𝑗 = 𝑃𝑃𝑋𝑋|𝑌𝑌 𝑥𝑥𝑗𝑗 𝑦𝑦𝑖𝑖 𝑃𝑃𝑌𝑌(𝑦𝑦𝑖𝑖)
グループ1の赤の
場合の数𝑁𝑁12
グループ1の
場合の数𝑁𝑁1�
赤の場合の数𝑁𝑁�2
確率変数が2つ
= 𝑃𝑃𝑌𝑌|𝑋𝑋 𝑦𝑦𝑖𝑖 𝑥𝑥𝑗𝑗 𝑃𝑃𝑋𝑋(𝑥𝑥𝑗𝑗)
𝑋𝑋と𝑌𝑌を入れ替え
ても成り立つ
𝑃𝑃𝑌𝑌|𝑋𝑋 𝑦𝑦𝑖𝑖 𝑥𝑥𝑗𝑗 =
𝑃𝑃𝑌𝑌𝑌𝑌 𝑦𝑦𝑖𝑖, 𝑥𝑥𝑗𝑗
𝑃𝑃𝑋𝑋(𝑥𝑥𝑗𝑗)
右辺と左辺を入れ替え
=
𝑃𝑃𝑋𝑋|𝑌𝑌 𝑥𝑥𝑗𝑗 𝑦𝑦𝑖𝑖 𝑃𝑃𝑌𝑌(𝑦𝑦𝑖𝑖)
𝑃𝑃𝑋𝑋(𝑥𝑥𝑖𝑖)
ベイズの定理
36
 事象𝑦𝑦𝑖𝑖を原因、事象𝑥𝑥𝑗𝑗を結果と考える
 しかし、実際には診断では、逆の条件付き確率が必要
 この結果𝑥𝑥を観測したもとでの原因𝑦𝑦の条件付き確率を
「事後確率」という
𝑃𝑃𝑌𝑌|𝑋𝑋 𝑦𝑦𝑖𝑖|𝑥𝑥𝑗𝑗 =
𝑃𝑃𝑋𝑋|𝑌𝑌 𝑥𝑥𝑗𝑗 𝑦𝑦𝑖𝑖 𝑃𝑃𝑌𝑌(𝑦𝑦𝑖𝑖)
𝑃𝑃𝑋𝑋(𝑥𝑥𝑗𝑗)
例えば、原因𝑦𝑦𝑖𝑖:病気、 結果𝑥𝑥𝑗𝑗:血圧140以上とした場合、病気の患者と健康な人
を集めて、血圧140以上の人を観測することにより、以下を求めることができる。
𝑃𝑃𝑋𝑋|𝑌𝑌 𝑋𝑋 = 血圧140以上 Y = 病気 と𝑃𝑃𝑋𝑋|𝑌𝑌 𝑋𝑋 = 血圧140以上 Y = 健康
𝑃𝑃𝑌𝑌|𝑋𝑋 Y = 病気 𝑋𝑋 = 血圧140以上
ベイズの定理 続き
37
 ベイズの定理より、事後確率を求めることができる
 ただし、𝑃𝑃(𝑦𝑦𝑗𝑗)を事前確率といい、人間が経験的に決定
 分母は、周辺確率と乗法定理より求める
𝑃𝑃𝑌𝑌|𝑋𝑋 Y = 病気 𝑋𝑋 = 血圧140以上 =
𝑃𝑃𝑋𝑋|𝑌𝑌 𝑋𝑋 = 血圧140以上 Y = 病気 𝑃𝑃𝑌𝑌 Y = 病気
𝑃𝑃𝑋𝑋(𝑋𝑋 = 血圧140以上)
例えば、病気の人の割合は、一般的に低いので𝑃𝑃𝑌𝑌 Y = 病気 = 0.1
𝑃𝑃𝑋𝑋 𝑋𝑋 = 血圧140以上 = �
𝑦𝑦∈{病気、健康}
𝑃𝑃𝑋𝑋|𝑌𝑌 𝑋𝑋 = 血圧140以上 Y = 𝑦𝑦 𝑃𝑃𝑌𝑌 Y = 𝑦𝑦
𝑃𝑃𝑌𝑌|𝑋𝑋 𝑦𝑦𝑖𝑖|𝑥𝑥𝑗𝑗 =
𝑃𝑃𝑋𝑋|𝑌𝑌 𝑥𝑥𝑗𝑗 𝑦𝑦𝑖𝑖 𝑃𝑃𝑌𝑌(𝑦𝑦𝑖𝑖)
𝑃𝑃𝑋𝑋(𝑥𝑥𝑗𝑗)
事後確率
事前確率
周辺確率
38
 周辺確率:事象𝑦𝑦に関係なく事象𝑥𝑥𝑗𝑗が起こる確率
標本空間𝑆𝑆
確率変数𝑋𝑋(ボールの色)
確率変数𝑌𝑌
(グループの種類)
𝑥𝑥1:青 𝑥𝑥2:赤
𝑦𝑦1: グループ1 5
1
2
6
箱
グループ1 グループ2
𝑦𝑦2: グループ2
グループに関係なく赤が選ばれる確率(周辺確率)
𝑃𝑃𝑋𝑋 𝑋𝑋 = 𝑥𝑥2 =
𝑁𝑁12
𝑁𝑁
+
𝑁𝑁22
𝑁𝑁
=
2
14
+
6
14
=
4
7
𝑃𝑃𝑋𝑋 𝑥𝑥𝑗𝑗 =
𝑁𝑁�𝑗𝑗
𝑁𝑁
=
1
𝑁𝑁
�
𝑖𝑖
𝑁𝑁𝑖𝑖𝑗𝑗 = �
𝑖𝑖
𝑃𝑃𝑌𝑌𝑋𝑋 𝑦𝑦𝑖𝑖, 𝑥𝑥𝑗𝑗
事象𝑦𝑦との同時確率
の足し合わせと等しい
確率変数が2つ
𝑁𝑁�𝑗𝑗:𝑗𝑗列の場合の数の合計
ベイズの定理 続き
39
 ベイズの定理は、1700年代にイギリスのエディンバラ大の
トーマスベイズにより発見
 古典的確率の頻度主義者からの批判
 原因と結果の順番が異なり、本来は観測できない確率
 事前確率を人間が設定することから主観的
 近年、未観測の事象の確率や予測の不確実性などで
工学的にとても有用なため応用が進んでいる
演習4
40
 周辺確率より
 タイトル「演習レポート」、日付、学生番号、氏名を用紙の一番上に
記載
いずれかのグループからボールを1個取り出したと
ころ、 青いボールでした。このボールがグループ2
から取り出された確率𝑃𝑃 𝑦𝑦2|𝑥𝑥2 を求めなさい。
𝑦𝑦𝑖𝑖:グループ𝑖𝑖を選択する事象
𝑥𝑥𝑗𝑗:ボールを取り出す事象(赤:j=1、青:j=2)
𝑃𝑃 𝑥𝑥2 = ∑𝑖𝑖 𝑃𝑃 𝑥𝑥2, 𝑦𝑦𝑖𝑖 = ∑𝑖𝑖 𝑃𝑃 𝑥𝑥2|𝑦𝑦𝑖𝑖 𝑃𝑃 𝑦𝑦𝑖𝑖 =
5
7
1
2
+
1
7
1
2
=
6
14
=
3
7
𝑃𝑃 𝑥𝑥2 𝑦𝑦1 =
5
7
𝑃𝑃 𝑥𝑥2 𝑦𝑦2 =
1
7
グループ1 グループ2
? ?
ただし、各グループを選択した条件下で青いボールを選択する確率は、実験より以下
のようにわかっているとする。また、各グループを選択する事前確率は𝑃𝑃 𝑦𝑦𝑖𝑖 =
1
2
とする
レポートの提出方法
42
 演習レポートの提出方法:
 タイトル「演習レポート」、日付・学生番号・氏名を用紙の一番上に記載
 課題レポート の提出方法:
 タイトル「課題レポート」、出題日・学生番号・氏名を用紙の一番上に記載
 2ページ以上になる場合は、ホッチキス留め
 A4サイズの用紙を使用
 一度に複数の課題レポートを提出する場合出題日ごとに別々に綴じる
内容
43
 機械学習とは
 機械学習の実用例
 機械学習が急速に広まった理由
 講義の概要
 確率統計の復習
 確率の定義、条件付き確率、乗法定理
 期待値の定義と性質
 ベイズの定理と事後確率
 最適化手法の復習
 微分・偏微分の定義
 最急降下法
微分の定義
44
 微分の図を用いた解釈
 微分の例:
𝑑𝑑𝑓𝑓(𝑥𝑥)
𝑑𝑑𝑑𝑑
≡ 𝑓𝑓′
𝑥𝑥 = lim
∆𝑥𝑥→0
𝑓𝑓 𝑥𝑥 + ∆𝑥𝑥 − 𝑓𝑓(𝑥𝑥)
∆𝑥𝑥
𝑓𝑓(𝑥𝑥)
𝑥𝑥 𝑥𝑥 + ∆𝑥𝑥
𝑓𝑓(𝑥𝑥 + ∆𝑥𝑥)
点Aと点Bを通る直線の傾き:
𝑓𝑓 𝑥𝑥+∆𝑥𝑥 −𝑓𝑓(𝑥𝑥)
𝑥𝑥+∆𝑥𝑥−𝑥𝑥
=
𝑓𝑓 𝑥𝑥+∆𝑥𝑥 −𝑓𝑓(𝑥𝑥)
∆𝑥𝑥
∆𝑥𝑥を0に近づけると、点𝑥𝑥での接線の傾きに近づく
𝐴𝐴
𝐵𝐵
微分𝑓𝑓′ 𝑥𝑥 は、関数𝑓𝑓 𝑥𝑥 の点𝑥𝑥での接線の傾き
𝑓𝑓 𝑥𝑥 = 𝑥𝑥2 𝑑𝑑𝑑𝑑
𝑑𝑑𝑑𝑑
= lim
∆𝑥𝑥→0
𝑥𝑥2+2𝑥𝑥∆𝑥𝑥+∆𝑥𝑥2−𝑥𝑥2
∆𝑥𝑥
= lim
∆𝑥𝑥→0
2𝑥𝑥 + ∆𝑥𝑥 = 2𝑥𝑥
偏微分の定義
45
 偏微分の図を用いた解釈
 偏微分の例:
𝜕𝜕𝑓𝑓(𝑥𝑥1, 𝑥𝑥2)
𝜕𝜕𝑥𝑥1
≡ lim
∆𝑥𝑥1→0
𝑓𝑓 𝑥𝑥1 + ∆𝑥𝑥1, 𝑥𝑥2 − 𝑓𝑓(𝑥𝑥1, 𝑥𝑥2)
∆𝑥𝑥1
𝑓𝑓 𝑥𝑥1, 𝑥𝑥2 = − 𝑥𝑥1 − 𝑥𝑥2
2
= −𝑥𝑥1
2
+ 2𝑥𝑥1 𝑥𝑥2 − 𝑥𝑥2
2 𝑥𝑥1
𝑥𝑥2
𝐴𝐴: 𝑓𝑓(𝑎𝑎, 𝑏𝑏)
𝑎𝑎
𝑏𝑏
𝜕𝜕𝑓𝑓(𝑎𝑎, 𝑥𝑥2)
𝜕𝜕𝑥𝑥2
𝑥𝑥2軸に平行な断面の接線の傾き
𝑥𝑥1軸方向は𝑥𝑥1 = aで固定
𝜕𝜕𝑓𝑓(𝑥𝑥1, 𝑏𝑏)
𝜕𝜕𝑥𝑥1
𝑥𝑥1軸に平行な断面の接線の傾き
𝑥𝑥2軸方向は𝑥𝑥2 = bで固定
𝜕𝜕𝑓𝑓(𝑥𝑥1,2)
𝜕𝜕𝑥𝑥1
= −2𝑥𝑥1 + 2 𝑥𝑥2 = −2𝑥𝑥1 + 4
𝑥𝑥1, 𝑥𝑥2 = (3, 2)での偏微分
𝜕𝜕𝑓𝑓(3, 𝑥𝑥2)
𝜕𝜕𝑥𝑥2
= 2𝑥𝑥1 − 2 𝑥𝑥2 = −2𝑥𝑥2 + 6
𝑓𝑓(𝑥𝑥1, 𝑥𝑥2)
内容
46
 機械学習とは
 機械学習の実用例
 機械学習が急速に広まった理由
 講義の概要
 確率統計の復習
 確率の定義、条件付き確率、乗法定理
 期待値の定義と性質
 ベイズの定理と事後確率
 最適化手法の復習
 微分・偏微分の定義
 最急降下法
第7、8回目に予定
最急降下法による最適化
47
 制約条件なしの最適化問題:
 𝑓𝑓 𝒙𝒙 が凸の場合:
 微分をとり0と置くことにより最適解を求める
 大域最適解を保障
 𝑓𝑓 𝒙𝒙 が非凸の場合:
 最急降下法を用いるのが一般的
 局所最適解を保障
目的関数(Objective function)
min
𝑥𝑥
𝑓𝑓(𝑥𝑥)
関数𝑓𝑓 𝑥𝑥 を最小化する𝑥𝑥の値
𝑥𝑥∗
を求める問題
𝑥𝑥
𝑓𝑓 𝑥𝑥 は下に凸
微分(接線の傾き)=0
𝑥𝑥𝑡𝑡+1 = 𝑥𝑥𝑡𝑡 − 𝛼𝛼
𝑑𝑑𝑑𝑑(𝑥𝑥)
𝑑𝑑𝑑𝑑 初期値𝑥𝑥0をランダムに設定し、微分を用いて更新
𝑥𝑥0 → 𝑥𝑥1 → ⋯ → 𝑥𝑥𝑡𝑡 → 𝑥𝑥𝑡𝑡+1 →𝛼𝛼 > 0:学習率
𝑓𝑓 𝑥𝑥 は非凸
𝑥𝑥𝑥𝑥1𝑥𝑥2 𝑥𝑥0𝑥𝑥3
接線の傾き
-𝛼𝛼
𝑑𝑑𝑑𝑑(𝑥𝑥0)
𝑑𝑑𝑑𝑑
演習5
48
 次の最適化問題を最急降下法を用いて解きなさい。
 ただし、初期値𝑥𝑥0 = 1、学習率𝛼𝛼 = 0.3とする
 タイトル「演習レポート」、日付、学生番号、氏名を用紙の
一番上に記載
目的関数(Objective function)
min
𝑥𝑥
𝑥𝑥2
レポートの提出方法
52
 演習レポートの提出方法:
 タイトル「演習レポート」、日付・学生番号・氏名を用紙の一番上に記載
 課題レポート の提出方法:
 タイトル「課題レポート」、出題日・学生番号・氏名を用紙の一番上に記載
 2ページ以上になる場合は、ホッチキス留め
 A4サイズの用紙を使用
 一度に複数の課題レポートを提出する場合出題日ごとに別々に綴じる
ImageNet Challengeとは
53
 2010年から始まった大規模画像認識のコンペティション
 1000クラスのカテゴリ分類を行うclassificationタスクと、
200クラスの物体検出を行うdetectionタスクがある
 PASCAL VOC(detectionのコンペティション)が、2012年で
終了したため、ImageNetに注目が集まっている
【detectionの例】【classificationの例】
・PASCAL VOCとImageNetの比較
・ImageNetは大規模化している
ImageNet
54
Car mirror
baseball
butterfly
・Dalmatian, coach dog
・Newfoundland
・German shepherd
・Eskimo dog, husky
・African hunting dog
canoe
yawl
dog

Weitere ähnliche Inhalte

Was ist angesagt?

【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...Deep Learning JP
 
敵対的学習に対するラデマッハ複雑度
敵対的学習に対するラデマッハ複雑度敵対的学習に対するラデマッハ複雑度
敵対的学習に対するラデマッハ複雑度Masa Kato
 
異常音検知に対する深層学習適用事例
異常音検知に対する深層学習適用事例異常音検知に対する深層学習適用事例
異常音検知に対する深層学習適用事例NU_I_TODALAB
 
「統計的学習理論」第1章
「統計的学習理論」第1章「統計的学習理論」第1章
「統計的学習理論」第1章Kota Matsui
 
強化学習その3
強化学習その3強化学習その3
強化学習その3nishio
 
論文紹介「A Perspective View and Survey of Meta-Learning」
論文紹介「A Perspective View and Survey of Meta-Learning」論文紹介「A Perspective View and Survey of Meta-Learning」
論文紹介「A Perspective View and Survey of Meta-Learning」Kota Matsui
 
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知  #ml-professional単純ベイズ法による異常検知  #ml-professional
単純ベイズ法による異常検知 #ml-professionalAi Makabi
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Surveytmtm otm
 
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会Shotaro Sano
 
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会Kenyu Uehara
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Takao Yamanaka
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展Shiga University, RIKEN
 
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本Takahiro Kubo
 
ゆらぐヒト脳波データからどのように集中度合いを可視化するか
ゆらぐヒト脳波データからどのように集中度合いを可視化するかゆらぐヒト脳波データからどのように集中度合いを可視化するか
ゆらぐヒト脳波データからどのように集中度合いを可視化するかKenyu Uehara
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化gree_tech
 
ベイジアンディープニューラルネット
ベイジアンディープニューラルネットベイジアンディープニューラルネット
ベイジアンディープニューラルネットYuta Kashino
 
SVMについて
SVMについてSVMについて
SVMについてmknh1122
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
全脳アーキテクチャ若手の会 機械学習勉強会 ベイジアンネットワーク
全脳アーキテクチャ若手の会 機械学習勉強会 ベイジアンネットワーク全脳アーキテクチャ若手の会 機械学習勉強会 ベイジアンネットワーク
全脳アーキテクチャ若手の会 機械学習勉強会 ベイジアンネットワークErika_Fujita
 
多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識佑 甲野
 

Was ist angesagt? (20)

【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 
敵対的学習に対するラデマッハ複雑度
敵対的学習に対するラデマッハ複雑度敵対的学習に対するラデマッハ複雑度
敵対的学習に対するラデマッハ複雑度
 
異常音検知に対する深層学習適用事例
異常音検知に対する深層学習適用事例異常音検知に対する深層学習適用事例
異常音検知に対する深層学習適用事例
 
「統計的学習理論」第1章
「統計的学習理論」第1章「統計的学習理論」第1章
「統計的学習理論」第1章
 
強化学習その3
強化学習その3強化学習その3
強化学習その3
 
論文紹介「A Perspective View and Survey of Meta-Learning」
論文紹介「A Perspective View and Survey of Meta-Learning」論文紹介「A Perspective View and Survey of Meta-Learning」
論文紹介「A Perspective View and Survey of Meta-Learning」
 
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知  #ml-professional単純ベイズ法による異常検知  #ml-professional
単純ベイズ法による異常検知 #ml-professional
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
 
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
 
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
 
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本
 
ゆらぐヒト脳波データからどのように集中度合いを可視化するか
ゆらぐヒト脳波データからどのように集中度合いを可視化するかゆらぐヒト脳波データからどのように集中度合いを可視化するか
ゆらぐヒト脳波データからどのように集中度合いを可視化するか
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
 
ベイジアンディープニューラルネット
ベイジアンディープニューラルネットベイジアンディープニューラルネット
ベイジアンディープニューラルネット
 
SVMについて
SVMについてSVMについて
SVMについて
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
全脳アーキテクチャ若手の会 機械学習勉強会 ベイジアンネットワーク
全脳アーキテクチャ若手の会 機械学習勉強会 ベイジアンネットワーク全脳アーキテクチャ若手の会 機械学習勉強会 ベイジアンネットワーク
全脳アーキテクチャ若手の会 機械学習勉強会 ベイジアンネットワーク
 
多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識
 

Ähnlich wie 人工知能2018 5 機械学習の基礎

第4回スキル養成講座 講義スライド
第4回スキル養成講座 講義スライド第4回スキル養成講座 講義スライド
第4回スキル養成講座 講義スライドkeiodig
 
データ解析4 確率の復習
データ解析4 確率の復習データ解析4 確率の復習
データ解析4 確率の復習Hirotaka Hachiya
 
モンテカルロ法と情報量
モンテカルロ法と情報量モンテカルロ法と情報量
モンテカルロ法と情報量Shohei Miyashita
 
Introduction to Statistical Estimation (統計的推定入門)
Introduction to Statistical Estimation (統計的推定入門)Introduction to Statistical Estimation (統計的推定入門)
Introduction to Statistical Estimation (統計的推定入門)Taro Tezuka
 
データ解析6 重回帰分析
データ解析6 重回帰分析データ解析6 重回帰分析
データ解析6 重回帰分析Hirotaka Hachiya
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へZansa
 
データサイエンス概論第一=4-2 確率と確率分布
データサイエンス概論第一=4-2 確率と確率分布データサイエンス概論第一=4-2 確率と確率分布
データサイエンス概論第一=4-2 確率と確率分布Seiichi Uchida
 
ベイズ統計学
ベイズ統計学 ベイズ統計学
ベイズ統計学 moritama1515
 
Infomation geometry(overview)
Infomation geometry(overview)Infomation geometry(overview)
Infomation geometry(overview)Yoshitake Misaki
 
20170408cvsaisentan6 2 4.3-4.5
20170408cvsaisentan6 2 4.3-4.520170408cvsaisentan6 2 4.3-4.5
20170408cvsaisentan6 2 4.3-4.5Takuya Minagawa
 
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論Akihiro Nitta
 
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)Ryosuke Sasaki
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなしToru Imai
 
深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについてryosuke-kojima
 
確率の基礎
確率の基礎確率の基礎
確率の基礎諒 片山
 
AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎Hirotaka Hachiya
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門ryosuke-kojima
 
データ解析13 線形判別分析
データ解析13 線形判別分析データ解析13 線形判別分析
データ解析13 線形判別分析Hirotaka Hachiya
 

Ähnlich wie 人工知能2018 5 機械学習の基礎 (20)

第4回スキル養成講座 講義スライド
第4回スキル養成講座 講義スライド第4回スキル養成講座 講義スライド
第4回スキル養成講座 講義スライド
 
データ解析4 確率の復習
データ解析4 確率の復習データ解析4 確率の復習
データ解析4 確率の復習
 
モンテカルロ法と情報量
モンテカルロ法と情報量モンテカルロ法と情報量
モンテカルロ法と情報量
 
Introduction to Statistical Estimation (統計的推定入門)
Introduction to Statistical Estimation (統計的推定入門)Introduction to Statistical Estimation (統計的推定入門)
Introduction to Statistical Estimation (統計的推定入門)
 
データ解析6 重回帰分析
データ解析6 重回帰分析データ解析6 重回帰分析
データ解析6 重回帰分析
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
 
データサイエンス概論第一=4-2 確率と確率分布
データサイエンス概論第一=4-2 確率と確率分布データサイエンス概論第一=4-2 確率と確率分布
データサイエンス概論第一=4-2 確率と確率分布
 
ベイズ統計学
ベイズ統計学 ベイズ統計学
ベイズ統計学
 
6 Info Theory
6 Info Theory6 Info Theory
6 Info Theory
 
Rゼミ 3
Rゼミ 3Rゼミ 3
Rゼミ 3
 
Infomation geometry(overview)
Infomation geometry(overview)Infomation geometry(overview)
Infomation geometry(overview)
 
20170408cvsaisentan6 2 4.3-4.5
20170408cvsaisentan6 2 4.3-4.520170408cvsaisentan6 2 4.3-4.5
20170408cvsaisentan6 2 4.3-4.5
 
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論
 
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 
深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて
 
確率の基礎
確率の基礎確率の基礎
確率の基礎
 
AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
データ解析13 線形判別分析
データ解析13 線形判別分析データ解析13 線形判別分析
データ解析13 線形判別分析
 

Mehr von Hirotaka Hachiya

人工知能2018 強化学習の応用
人工知能2018 強化学習の応用人工知能2018 強化学習の応用
人工知能2018 強化学習の応用Hirotaka Hachiya
 
人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎Hirotaka Hachiya
 
データ解析14 ナイーブベイズ
データ解析14 ナイーブベイズデータ解析14 ナイーブベイズ
データ解析14 ナイーブベイズHirotaka Hachiya
 
データ解析12 k平均法
データ解析12 k平均法データ解析12 k平均法
データ解析12 k平均法Hirotaka Hachiya
 
データ解析11 因子分析の応用
データ解析11 因子分析の応用データ解析11 因子分析の応用
データ解析11 因子分析の応用Hirotaka Hachiya
 
データ解析10 因子分析の基礎
データ解析10 因子分析の基礎データ解析10 因子分析の基礎
データ解析10 因子分析の基礎Hirotaka Hachiya
 
データ解析8 主成分分析の応用
データ解析8 主成分分析の応用データ解析8 主成分分析の応用
データ解析8 主成分分析の応用Hirotaka Hachiya
 
データ解析7 主成分分析の基礎
データ解析7 主成分分析の基礎データ解析7 主成分分析の基礎
データ解析7 主成分分析の基礎Hirotaka Hachiya
 
データ解析5 単回帰分析
データ解析5 単回帰分析データ解析5 単回帰分析
データ解析5 単回帰分析Hirotaka Hachiya
 
データ解析3 最適化の復習
データ解析3 最適化の復習データ解析3 最適化の復習
データ解析3 最適化の復習Hirotaka Hachiya
 
データ解析2 線形代数の復習
データ解析2 線形代数の復習データ解析2 線形代数の復習
データ解析2 線形代数の復習Hirotaka Hachiya
 
人工知能12 確率モデル
人工知能12 確率モデル人工知能12 確率モデル
人工知能12 確率モデルHirotaka Hachiya
 
人工知能13 deep learning
人工知能13 deep learning人工知能13 deep learning
人工知能13 deep learningHirotaka Hachiya
 
人工知能10 サポートベクトルマシン
人工知能10 サポートベクトルマシン人工知能10 サポートベクトルマシン
人工知能10 サポートベクトルマシンHirotaka Hachiya
 
人工知能11 カーネルモデル
人工知能11 カーネルモデル人工知能11 カーネルモデル
人工知能11 カーネルモデルHirotaka Hachiya
 

Mehr von Hirotaka Hachiya (15)

人工知能2018 強化学習の応用
人工知能2018 強化学習の応用人工知能2018 強化学習の応用
人工知能2018 強化学習の応用
 
人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎
 
データ解析14 ナイーブベイズ
データ解析14 ナイーブベイズデータ解析14 ナイーブベイズ
データ解析14 ナイーブベイズ
 
データ解析12 k平均法
データ解析12 k平均法データ解析12 k平均法
データ解析12 k平均法
 
データ解析11 因子分析の応用
データ解析11 因子分析の応用データ解析11 因子分析の応用
データ解析11 因子分析の応用
 
データ解析10 因子分析の基礎
データ解析10 因子分析の基礎データ解析10 因子分析の基礎
データ解析10 因子分析の基礎
 
データ解析8 主成分分析の応用
データ解析8 主成分分析の応用データ解析8 主成分分析の応用
データ解析8 主成分分析の応用
 
データ解析7 主成分分析の基礎
データ解析7 主成分分析の基礎データ解析7 主成分分析の基礎
データ解析7 主成分分析の基礎
 
データ解析5 単回帰分析
データ解析5 単回帰分析データ解析5 単回帰分析
データ解析5 単回帰分析
 
データ解析3 最適化の復習
データ解析3 最適化の復習データ解析3 最適化の復習
データ解析3 最適化の復習
 
データ解析2 線形代数の復習
データ解析2 線形代数の復習データ解析2 線形代数の復習
データ解析2 線形代数の復習
 
人工知能12 確率モデル
人工知能12 確率モデル人工知能12 確率モデル
人工知能12 確率モデル
 
人工知能13 deep learning
人工知能13 deep learning人工知能13 deep learning
人工知能13 deep learning
 
人工知能10 サポートベクトルマシン
人工知能10 サポートベクトルマシン人工知能10 サポートベクトルマシン
人工知能10 サポートベクトルマシン
 
人工知能11 カーネルモデル
人工知能11 カーネルモデル人工知能11 カーネルモデル
人工知能11 カーネルモデル
 

人工知能2018 5 機械学習の基礎