SlideShare ist ein Scribd-Unternehmen logo
1 von 39
Downloaden Sie, um offline zu lesen
データ解析 第6回
2018年5月24日 八谷 大岳
1
講義内容
6
数学の復習
機械学習の基礎
内容:
7
 単回帰分析の復習
 重回帰分析の基礎
 重回帰分析の例
 重回帰分析の定式化
 重回帰分析の実装
 重回帰分析の活用
 目的変数の予測
 説明変数の分析
 回帰分析の精度評価
 利用時の注意点
復習:回帰分析とは
8
 入力と出力の組のデータから、入力に対する出力を予測
する関係モデルを学習
 入力:説明変数
 スカラー(1変数)の場合:単回帰分析
 ベクトル(多変数)の場合:重回帰分析
 出力:目的変数
 実数スカラー
出力𝑦𝑦 :収穫量
肥料の種類と量
雨量
入力𝑥𝑥
日照時間
関係モデルによる予測
復習:単回帰分析の例
9
 人口とゴミ排出量のデータから、将来のゴミ排出量を予測
ゴミ排出量=傾き X 人口 + 切片 + 残差
(説明変数)
100000 300000
50000
100000
150000
500000
人口
ゴ
ミ
排
出
量
傾き
切片
予測
残差
直線
(目的変数)
復習:単回帰分析の定式化
 学習データ: 𝐷𝐷𝑡𝑡𝑡𝑡 = 𝑥𝑥𝑖𝑖, 𝑦𝑦𝑖𝑖
𝑖𝑖=1
𝑁𝑁
 単回帰モデル:回帰直線
 𝑦𝑦成分の誤差の二乗誤差和の最小化により、学習データの𝑦𝑦成分
の平均の点を通る直線 �𝑓𝑓𝑤𝑤∗,𝑏𝑏∗ 𝑥𝑥 を獲得
 最適な傾き𝑤𝑤∗
と切片𝑏𝑏∗
は、学習データの分散と共分散で求まる
10
i番目に観測された学習データ
𝑥𝑥𝑖𝑖
, 𝑦𝑦𝑖𝑖
�𝑓𝑓𝑤𝑤∗,𝑏𝑏∗ 𝑥𝑥
𝑥𝑥
𝑦𝑦
𝑜𝑜
𝐸𝐸 𝑤𝑤, 𝑏𝑏 = ∑𝑖𝑖=1
𝑁𝑁
𝑦𝑦𝑖𝑖 − �𝑓𝑓𝑤𝑤,𝑏𝑏 𝑥𝑥𝑖𝑖
2
𝑤𝑤∗, 𝑏𝑏∗ = argmin
𝑤𝑤,𝑏𝑏
𝐸𝐸 𝑤𝑤, 𝑏𝑏
𝑏𝑏∗
= �𝑦𝑦 −
S𝒙𝒙𝒙𝒙
S𝒙𝒙𝒙𝒙
̅𝑥𝑥= �𝑦𝑦 − 𝑤𝑤∗
̅𝑥𝑥𝑤𝑤∗
=
S𝒙𝒙𝒙𝒙
S𝒙𝒙𝒙𝒙
�𝑓𝑓𝑤𝑤,𝑏𝑏 𝑥𝑥 = 𝑤𝑤𝑤𝑤 + 𝑏𝑏
内容:
11
 単回帰分析の復習
 重回帰分析の基礎
 重回帰分析の例
 重回帰分析の定式化
 重回帰分析の実装
 重回帰分析の活用
 目的変数の予測
 説明変数の分析
 回帰分析の精度評価
 利用時の注意点
重回帰分析とは
12
 単回帰分析:説明変数が1個の回帰
 目的変数𝑦𝑦:スカラー
 説明変数𝑥𝑥:スカラー
 重回帰分析:説明変数が2個以上の回帰
 目的変数𝑦𝑦:スカラー
 説明変数𝒙𝒙:ベクトル 𝒙𝒙 = (𝑥𝑥1, 𝑥𝑥2, … , 𝑥𝑥𝐷𝐷)Τ
靴サイズ=傾き X 身長 + 切片 + 残差
説明変数𝑥𝑥𝑤𝑤 𝑏𝑏目的変数𝑦𝑦 𝜀𝜀
目的変数𝑦𝑦
靴サイズ=傾き X 身長 + 傾き X 体重 + ... + 切片 + 残差
𝑤𝑤1 説明変数𝑥𝑥1 説明変数𝑥𝑥2𝑤𝑤2 𝑏𝑏 𝜀𝜀
直線
平面
重回帰分析のデータの例
13
 説明変数が2個の場合:
標本番号 身長(x1) 体重(x2) 靴サイズ(y)
1 162 44 24.0
2 165 48 24.5
3 168 53 25.5
4 160 45 22.5
5 158 45 23.0
6 153 43 22.0
7 158 45 23.0
8 168 50 24.0
9 157 52 23.0
10 154 42 23.0
11 170 48 25.0
12 157 45 23.5
(cm) (kg) (cm)
説明変数𝑥𝑥1 説明変数𝑥𝑥2 目的変数𝑦𝑦
重回帰分析のデータの例と目的
14
 重回帰分析の目的:データにあてはまる(超)平面を求めたい
 説明変数が2個の場合は平面、3個以上の場合は超平面
目的変数𝑦𝑦:靴サイズ
どんな平面がいいのか? 1
15
目的変数𝑦𝑦:靴サイズ
平面:𝑦𝑦 = 𝑤𝑤1 𝑥𝑥1 + 𝑤𝑤1 𝑥𝑥1 + 𝑏𝑏
どんな平面がいいのか? 2
16
目的変数𝑦𝑦:靴サイズ
平面:𝑦𝑦 = 𝑤𝑤1 𝑥𝑥1 + 𝑤𝑤1 𝑥𝑥1 + 𝑏𝑏
どんな平面がいいのか? 3
17
目的変数𝑦𝑦:靴サイズ
平面:𝑦𝑦 = 𝑤𝑤1 𝑥𝑥1 + 𝑤𝑤1 𝑥𝑥1 + 𝑏𝑏
内容:
18
 単回帰分析の復習
 重回帰分析の基礎
 重回帰分析の例
 重回帰分析の定式化
 重回帰分析の実装
 重回帰分析の活用
 目的変数の予測
 説明変数の分析
 回帰分析の精度評価
 利用時の注意点
重回帰問題の定式化
 入力(説明変数)𝒙𝒙:実数値ベクトル
 出力(目的変数)𝑦𝑦:実数値スカラー
 学習データ:
 重回帰モデル:重回帰式、超平面
 省略版:
19
𝐷𝐷𝑡𝑡𝑡𝑡 = 𝒙𝒙1, 𝑦𝑦1 , 𝒙𝒙2, 𝑦𝑦2 , … , 𝒙𝒙𝑁𝑁, 𝑦𝑦 𝑁𝑁 = 𝒙𝒙𝑖𝑖, 𝑦𝑦𝑖𝑖
𝑖𝑖=1
𝑁𝑁
𝒘𝒘′ = (𝑤𝑤1, 𝑤𝑤2, … , 𝑤𝑤𝐷𝐷, 𝑏𝑏)Τ
�𝑓𝑓𝒘𝒘,𝑏𝑏 𝒙𝒙 = 𝒘𝒘Τ 𝒙𝒙 + 𝑏𝑏
𝑥𝑥1
𝑥𝑥2
偏回帰係数(学習するパラメータ)
𝒙𝒙′ = (𝑥𝑥1, 𝑥𝑥2, … , 𝑥𝑥𝐷𝐷, 1)Τ
�𝑓𝑓𝒘𝒘’ 𝒙𝒙’ = 𝒘𝒘′Τ 𝒙𝒙𝒙
𝑥𝑥2
𝑖𝑖
�𝑓𝑓𝒘𝒘,𝑏𝑏 𝑥𝑥 = �𝑓𝑓𝒘𝒘’ 𝒙𝒙’
𝒙𝒙𝑖𝑖, 𝑦𝑦𝑖𝑖
𝑥𝑥1
𝑖𝑖
𝑦𝑦𝑖𝑖
𝑖𝑖番目に観測された学習データ
𝒙𝒙𝑖𝑖, 𝑦𝑦𝑖𝑖
�𝑓𝑓𝒘𝒘′ 𝒙𝒙′
𝑥𝑥1
𝑥𝑥2
 最もあてはまる超平面:Y軸成分の二乗誤差和を最小化
 偏微分を用いて、最適な𝒘𝒘′を求める
Y軸成分の二乗誤差和の最小化
20
= (𝒚𝒚 − 𝐗𝐗Τ 𝒘𝒘′)Τ (𝒚𝒚 − 𝐗𝐗Τ 𝒘𝒘′) 𝐗𝐗 =
𝑥𝑥1
1
𝑥𝑥2
1
⋮
𝑥𝑥𝐷𝐷
1
1
𝑥𝑥1
2
𝑥𝑥2
2
⋮
𝑥𝑥𝐷𝐷
2
1
⋯
⋯
⋮
⋯
⋯
𝑥𝑥1
𝑁𝑁
𝑥𝑥2
𝑁𝑁
⋮
𝑥𝑥𝐷𝐷
𝑁𝑁
1
𝒚𝒚 =
𝑦𝑦1
𝑦𝑦2
⋮
𝑦𝑦 𝑁𝑁
𝐷𝐷:説明変数の数
𝑁𝑁:データ数
𝐸𝐸 𝒘𝒘′ = �
𝑖𝑖=1
𝑁𝑁
𝑦𝑦𝑖𝑖 − �𝑓𝑓𝒘𝒘′ 𝒙𝒙′𝑖𝑖
2
𝜀𝜀𝑖𝑖
二乗誤差和:
= ∑𝑖𝑖=1
𝑁𝑁
𝑦𝑦𝑖𝑖 − 𝒘𝒘′Τ 𝒙𝒙𝒙𝑖𝑖 2
行列・ベクトル表現
誤差𝜀𝜀𝑖𝑖
演習1
21
1. 二乗誤差和の行列表現を和の記号を用いた表現に変形しなさい。
ただし、データ数𝑁𝑁 = 4、説明変数の数𝐷𝐷 = 2とする。
2. 偏微分を用いて二乗誤差和を最小化する𝒘𝒘′の式を求めなさい。
 Matrix Cookbookより
 タイトル「演習レポート」、日付、学生番号、氏名を用紙の 一番上に
記載
𝐸𝐸 𝒘𝒘′ = (𝒚𝒚 − 𝐗𝐗Τ 𝒘𝒘′)Τ (𝒚𝒚 − 𝐗𝐗Τ 𝒘𝒘′)
(𝒚𝒚 − 𝐗𝐗Τ
𝒘𝒘′)Τ
(𝒚𝒚 − 𝐗𝐗Τ
𝒘𝒘′) ∑𝑖𝑖=1
𝑁𝑁
𝑦𝑦𝑖𝑖
− �𝑓𝑓𝒘𝒘′ 𝒙𝒙′𝑖𝑖
2
𝐷𝐷:説明変数の数
𝑁𝑁:データ数𝐗𝐗 =
𝑥𝑥1
1
𝑥𝑥2
1
1
𝑥𝑥1
2
𝑥𝑥2
2
1
𝑥𝑥1
3
𝑥𝑥2
3
1
𝑥𝑥1
4
𝑥𝑥2
4
1
𝒚𝒚 =
𝑦𝑦1
𝑦𝑦2
𝑦𝑦3
𝑦𝑦4
𝒘𝒘𝒘 =
𝑤𝑤1
𝑤𝑤2
𝑏𝑏
内容:
24
 単回帰分析の復習
 重回帰分析の基礎
 重回帰分析の例
 重回帰分析の定式化
 重回帰分析の実装
 重回帰分析の活用
 目的変数の予測
 説明変数の分析
 回帰分析の精度評価
 利用時の注意点
Pythonを用いた重回帰の実装例
25
 数値演算ライブラリNumpyを用いた重回帰分析の実装
 実行結果の例
詳細は次を参照:http://hirotaka-hachiya.hatenablog.com/entry/2017/12/06/173803
appendを用いて切片に対応する
値「1]を追加し行列𝐗𝐗を作成
matmul関数を用いた𝐗𝐗𝐗𝐗 𝚻𝚻
の演算
matmul関数を用いた𝐗𝐗𝐗𝐗の演算
inv関数を用いた 𝐗𝐗𝐗𝐗Τ −𝟏𝟏
𝐗𝐗𝐗𝐗の演算
Excelを用いた重回帰の実行例
26
 Excelでアドイン「分析ツール」を用いた重回帰分析の実行
データをExcelに入力
【重回帰分析の結果】
詳細は教科書p37または次を参照:https://tonari-it.com/excel-data-analysis-add-in
偏回帰係数
「データ」リボンの「データ分析」をクリック
「回帰分析」を選択し手順にしたい操作
内容:
27
 単回帰分析の復習
 重回帰分析の基礎
 重回帰分析の例
 重回帰分析の定式化
 重回帰分析の実装
 重回帰分析の活用
 目的変数の予測
 説明変数の分析
 回帰分析の精度評価
 利用時の注意点
重回帰分析を用いた予測
28
 A-Fのデータで重回帰式を求めて、Gの売上額を予測したい
売上額𝑦𝑦
(千万円)
広告費𝑥𝑥1
(百万円)
セールスマン数𝑥𝑥2
(人)
A 8 5 6
B 9 5 8
C 12 7 10
D 11 5 12
E 13 8 12
F 17 12 12
G ? 17 14
営業所A~Fにおける売上額𝑦𝑦、広告費𝑥𝑥1、セールスマン数𝑥𝑥2
偏回帰係数の計算
29
 Pythonのコードを用いて、偏回帰係数𝒘𝒘′を求める。
 実行結果:[ 0.8627451 0.46078431 1.01960784]
 得られた重回帰式(平面):
𝑦𝑦 = 0.86𝑥𝑥1 + 0.46𝑥𝑥2 + 1.02
numpyライブラリのインポート
説明変数𝒙𝒙の行列と
目的変数𝑦𝑦のベクトルを作成
演習2
30
 新しい営業所Gの売り上げがいくらになるか予測しなさい。
 タイトル「演習レポート」、日付、学生番号、氏名を用紙の
一番上に記載
売上額𝑦𝑦
(千万円)
広告費𝑥𝑥1
(百万円)
セールスマン数𝑥𝑥2
(人)
A 8 5 6
B 9 5 8
C 12 7 10
D 11 5 12
E 13 8 12
F 17 12 12
G ? 17 14
𝑦𝑦 = 0.86𝑥𝑥1 + 0.46𝑥𝑥2 + 1.02
営業所A~Fにおける売上額𝑦𝑦、広告費𝑥𝑥1、セールスマン数𝑥𝑥2
内容:
32
 単回帰分析の復習
 重回帰分析の基礎
 重回帰分析の例
 重回帰分析の定式化
 重回帰分析の実装
 重回帰分析の活用
 目的変数の予測
 説明変数の分析
 回帰分析の精度評価
 利用時の注意点
説明変数と目的変数への影響分析
33
 説明変数の目的変数に対する影響力を調べたい
 偏回帰係数𝒘𝒘′と説明変数の積の単位は、目的変数𝑦𝑦と同じ
𝑦𝑦 = 0.86𝑥𝑥1 + 0.46𝑥𝑥2 + 1.02
売上額𝑦𝑦
(千万円)
広告費𝑥𝑥1
(百万円)
セールスマン数𝑥𝑥2
(人)
A 8 5 6
B 9 5 8
C 12 7 10
D 11 5 12
E 13 8 12
F 17 12 12
売上額
(千万円)
広告費100万円使うと
売り上げが860万円増加
広告費𝑥𝑥1の単位:百万円
広告費𝑥𝑥1の係数:0.86(千万円)
セールスマン数𝑥𝑥2の単位:人
セールスマン数𝑥𝑥2の係数:0.46(千万円)
セールスマン1人増加で
売り上げ460万円増加
単位が𝑦𝑦と同じ
0.86𝑥𝑥1(千万円):0.86(千万円/百万円) × 𝑥𝑥1(百万円)
0.46𝑥𝑥2(千万円):0.46(千万円/人) × 𝑥𝑥2(人)
説明変数の重要度の分析
34
 偏回帰係数の大きさは説明変数の単位に依存
 売り上げを予測するため、どの説明変数が重要であるか分からない
 偏回帰係数の代わりに標準偏回帰係数を算出し、
説明変数の重要度を求める
偏回帰係数の大きさ ≠ 説明変数の重要度
広告費のデータ単位 広告費の係数 大小 セールスマン数の係数
百万円 0.86 > 0.46
十万円 0.086 < 0.46
データの標準化
35
 説明変数𝑥𝑥𝑗𝑗ごとに、値から平均を引いて標準偏差で割る
 目的変数𝑦𝑦の値から平均を引いて標準偏差で割る
𝑥𝑥𝑗𝑗
𝑖𝑖
=
𝑥𝑥𝑗𝑗
𝑖𝑖
− �𝑥𝑥𝑗𝑗
𝑆𝑆𝑥𝑥𝑗𝑗
𝑦𝑦𝑖𝑖 =
𝑦𝑦𝑖𝑖− �𝑦𝑦
𝑆𝑆𝑦𝑦
説明変数𝑥𝑥𝑗𝑗の𝑖𝑖番目の値
説明変数𝑥𝑥𝑗𝑗の標準偏差
説明変数𝑥𝑥𝑗𝑗の平均
目的変数𝑦𝑦の𝑖𝑖番目の値
目的変数𝑦𝑦の標準偏差
目的変数𝑦𝑦の平均
標準偏回帰係数
36
 標準化したデータに対して重回帰分析をかけると、
標準偏回帰係数𝒘𝒘′
が得られる
 売り上げデータの重回帰式:
 標準偏回帰係数は-1から1の範囲で、-1または1に近いほど重要
 係数が大きい説明変数が、予測に重要な説明変数となる
𝑦𝑦 = 0.74𝑥𝑥1 + 0.36𝑥𝑥2 + 2.47 × 10−16
データの単位に依存しない標準偏回帰係数が得られる
売上額𝑦𝑦
(千万円)
広告費𝑥𝑥1
(百万円)
セールスマン数𝑥𝑥2
(人)
A 8 5 6
B 9 5 8
C 12 7 10
D 11 5 12
E 13 8 12
F 17 12 12
広告費のスコア:0.74
セールスマン数のスコア: 0.36
「売上額」の予測において、「セールスマン
の数」より「広告費」の方が重要
内容:
37
 単回帰分析の復習
 重回帰分析の基礎
 重回帰分析の例
 重回帰分析の定式化
 重回帰分析の実装
 重回帰分析の活用
 目的変数の予測
 説明変数の分析
 回帰分析の精度評価
 利用時の注意点
回帰分析の精度分析
38
 決定係数:目的変数𝑦𝑦の偏差平方和に対する残差の二乗和の割合
 決定係数は0から1の範囲で、1に近いほど精度が高い
 決定係数の平方根𝑅𝑅を重相関係数と呼ぶ
 決定係数を用いる理由については、教科書P.102を参照
𝑅𝑅2
= 1 −
∑𝑖𝑖=1
𝑁𝑁
𝜀𝜀𝑖𝑖2
∑𝑖𝑖=1
𝑁𝑁
𝑦𝑦𝑖𝑖 − �𝑦𝑦 2
= 1 −
∑𝑖𝑖=1
𝑁𝑁
𝑦𝑦𝑖𝑖− �𝑓𝑓𝒘𝒘′ 𝒙𝒙′𝑖𝑖
2
∑𝑖𝑖=1
𝑁𝑁
𝑦𝑦𝑖𝑖− �𝑦𝑦
2 𝑖𝑖番目に観測された学習データ
𝒙𝒙𝑖𝑖
, 𝑦𝑦𝑖𝑖
�𝑓𝑓𝒘𝒘′ 𝒙𝒙′
𝑥𝑥1
𝑥𝑥2
残差𝜀𝜀𝑖𝑖
0.5未満:悪い、0.5以上:やや良い、0.8以上:非常に良い
偏差平方和:値と平均の差の二乗和
決定係数を用いた精度評価の例
39
 実績値𝑦𝑦 :実際の目標変数𝑦𝑦の値
 予測値�𝑓𝑓𝒘𝒘′ 𝒙𝒙′ :重回帰式を用いて予測した目標変数𝑦𝑦の値
 決定係数を求める
 決定係数が1に近いので、重回帰式がよく当てはまっている
売上額𝑦𝑦
(千万円)
実績値
広告費𝑥𝑥1
(百万円)
セールスマン数𝑥𝑥2
(人)
売上額�𝑓𝑓𝒘𝒘′ 𝒙𝒙′
(千万円)
予測値
A 8 5 6 8.1
B 9 5 8 9
C 12 7 10 11.7
D 11 5 12 10.9
E 13 8 12 13.4
F 17 12 12 16.9
𝑅𝑅2 = 1 −
∑𝑖𝑖=1
𝑁𝑁
𝑦𝑦𝑖𝑖 − �𝑓𝑓𝒘𝒘′ 𝒙𝒙′𝑖𝑖
2
∑𝑖𝑖=1
𝑁𝑁
𝑦𝑦𝑖𝑖 − �𝑦𝑦 2
= 1 −
0.35
51.3
= 0.993
演習3
40
 決定係数を求めて、重回帰式の精度を分析しなさい。
 タイトル「演習レポート」、日付、学生番号、氏名を用紙の
一番上に記載
売上額𝑦𝑦
(千万円)
実績値
広告費𝑥𝑥1
(百万円)
セールスマン数𝑥𝑥2
(人)
売上額𝑦𝑦
(千万円)
予測値
A 8 5 6 8.1
B 9 5 8 9
C 12 7 10 11.7
D 11 5 12 10.9
E 13 8 12 13.4
F 17 12 12 16.9
G 50 17 14 22.1
𝑅𝑅2
= 1 −
∑𝑖𝑖=1
𝑁𝑁
𝑦𝑦𝑖𝑖 − �𝑓𝑓𝒘𝒘′ 𝒙𝒙′𝑖𝑖
2
∑𝑖𝑖=1
𝑁𝑁
𝑦𝑦𝑖𝑖 − �𝑦𝑦 2
内容:
42
 単回帰分析の復習
 重回帰分析の基礎
 重回帰分析の例
 重回帰分析の定式化
 重回帰分析の実装
 重回帰分析の活用
 目的変数の予測
 説明変数の分析
 回帰分析の精度評価
 利用時の注意点
重回帰分析の利用時の注意点
43
 必要なデータ数:
 パラメータ(𝒘𝒘、𝑏𝑏)の数より多いのが基本
 一般的にはパラメータ数の10倍が目安
 決定係数は説明変数が増えるほど1に近づく
 説明変数が多い場合は、自由度調整済み決定係数を用いる
Peter Peduzzi et al., 1995
�𝑅𝑅2 = 1 −
∑𝑖𝑖=1
𝑁𝑁
𝑦𝑦𝑖𝑖
− �𝑓𝑓𝒘𝒘′ 𝒙𝒙′𝑖𝑖
2
𝑁𝑁 − 𝐷𝐷 − 1
∑𝑖𝑖=1
𝑁𝑁
𝑦𝑦𝑖𝑖 − �𝑦𝑦 2
𝑁𝑁 − 1
𝐷𝐷:説明変数の数
𝑅𝑅2 = 1 −
0.35
51.3
= 0.993
自由度調整済み
決定係数
�𝑅𝑅2
= 1 −
0.35/(6 − 2 − 1)
51.3/(6 − 1)
= 0.989
決定係数
説明変数が多いほど厳しい評価
重回帰分析の利用時の注意点 2
44
 説明変数間の1次従属性:多重共線性(マルチコ)
 説明変数間が1次従属の場合行列𝐗𝐗𝐗𝐗Τが正則でなくなり不安定になる
 線形モデルを用いる重回帰では非線形な関数を表現不可
𝒘𝒘′
= 𝐗𝐗𝐗𝐗Τ −𝟏𝟏
𝐗𝐗𝐗𝐗 𝒘𝒘′
= 𝐗𝐗𝐗𝐗Τ
+ 𝜆𝜆𝑰𝑰
−𝟏𝟏
𝐗𝐗𝐗𝐗
𝑰𝑰:単位行列
𝜆𝜆:スカラー
カーネルモデル
対策:行列 𝐗𝐗𝐗𝐗Τ の対角成分に小さい値を足すことにより正則化
カーネル関数を用いた関係モデル(カーネルモデル)に拡張
課題 準備
45
 ExcelまたはPythonを用いて、以下の家賃データに対して
重回帰分析を行いなさい。
 データはmoodleからダウンロードしてください。
目的変数𝑦𝑦 :家賃(円)
説明変数𝑥𝑥1 :徒歩(分)
説明変数𝑥𝑥2 :専有面積(平方m)
課題
46
1. 家賃データに対する重回帰式の偏回帰係数(𝒘𝒘と𝑏𝑏)を
求めなさい。
2. 説明変数(徒歩、専有面積)の目的変数(家賃)への影響に
ついて考察しなさい。
3. 決定係数を求めて、重回帰分析の精度を評価しなさい。
4. 家賃データに対する重回帰式の標準偏回帰係数(𝒘𝒘と𝑏𝑏)を
求め、説明変数の重要度について考察しなさい。
レポートの提出方法
47
 演習レポート:
 タイトル「演習レポート」、日付・学生番号・氏名を用紙の一番上に記載
 課題レポート :
 タイトル「課題レポート」、出題日・学生番号・氏名を用紙の一番上に記載
 2ページ以上になる場合は、ホッチキス留め
 A4サイズの用紙を使用
 一度に複数の課題レポートを提出する場合出題日ごとに別々に綴じる

Weitere ähnliche Inhalte

Was ist angesagt?

ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
Miyoshi Yuya
 
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
 
状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38
horihorio
 

Was ist angesagt? (20)

ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
Chapter2.3.6
Chapter2.3.6Chapter2.3.6
Chapter2.3.6
 
線形計画法入門
線形計画法入門線形計画法入門
線形計画法入門
 
R言語による アソシエーション分析-組合せ・事象の規則を解明する-(第5回R勉強会@東京)
R言語による アソシエーション分析-組合せ・事象の規則を解明する-(第5回R勉強会@東京)R言語による アソシエーション分析-組合せ・事象の規則を解明する-(第5回R勉強会@東京)
R言語による アソシエーション分析-組合せ・事象の規則を解明する-(第5回R勉強会@東京)
 
バンディット問題について
バンディット問題についてバンディット問題について
バンディット問題について
 
カーネル法を利用した異常波形検知
カーネル法を利用した異常波形検知カーネル法を利用した異常波形検知
カーネル法を利用した異常波形検知
 
DARM勉強会第3回 (missing data analysis)
DARM勉強会第3回 (missing data analysis)DARM勉強会第3回 (missing data analysis)
DARM勉強会第3回 (missing data analysis)
 
連続変量を含む条件付相互情報量の推定
連続変量を含む条件付相互情報量の推定連続変量を含む条件付相互情報量の推定
連続変量を含む条件付相互情報量の推定
 
Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門
 
MICの解説
MICの解説MICの解説
MICの解説
 
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
 
状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38
 
統計的因果推論からCausalMLまで走り抜けるスライド
統計的因果推論からCausalMLまで走り抜けるスライド統計的因果推論からCausalMLまで走り抜けるスライド
統計的因果推論からCausalMLまで走り抜けるスライド
 
Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)
 
Stanコードの書き方 中級編
Stanコードの書き方 中級編Stanコードの書き方 中級編
Stanコードの書き方 中級編
 
「生態学における統計的因果推論」という大ネタへの挑戦:その理論的背景と適用事例
「生態学における統計的因果推論」という大ネタへの挑戦:その理論的背景と適用事例「生態学における統計的因果推論」という大ネタへの挑戦:その理論的背景と適用事例
「生態学における統計的因果推論」という大ネタへの挑戦:その理論的背景と適用事例
 
強化学習その1
強化学習その1強化学習その1
強化学習その1
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
 

Ähnlich wie データ解析6 重回帰分析

K070k80 点推定 区間推定
K070k80 点推定 区間推定K070k80 点推定 区間推定
K070k80 点推定 区間推定
t2tarumi
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回
Issei Kurahashi
 

Ähnlich wie データ解析6 重回帰分析 (20)

データ解析11 因子分析の応用
データ解析11 因子分析の応用データ解析11 因子分析の応用
データ解析11 因子分析の応用
 
データ解析10 因子分析の基礎
データ解析10 因子分析の基礎データ解析10 因子分析の基礎
データ解析10 因子分析の基礎
 
データ解析7 主成分分析の基礎
データ解析7 主成分分析の基礎データ解析7 主成分分析の基礎
データ解析7 主成分分析の基礎
 
人生を豊かにする線形代数学
人生を豊かにする線形代数学人生を豊かにする線形代数学
人生を豊かにする線形代数学
 
prml_titech_9.0-9.2
prml_titech_9.0-9.2prml_titech_9.0-9.2
prml_titech_9.0-9.2
 
データ解析4 確率の復習
データ解析4 確率の復習データ解析4 確率の復習
データ解析4 確率の復習
 
K070k80 点推定 区間推定
K070k80 点推定 区間推定K070k80 点推定 区間推定
K070k80 点推定 区間推定
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
 
人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎
 
レポート1
レポート1レポート1
レポート1
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回
 
ベイズ統計によるデータ解析
ベイズ統計によるデータ解析ベイズ統計によるデータ解析
ベイズ統計によるデータ解析
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
 
データ解析13 線形判別分析
データ解析13 線形判別分析データ解析13 線形判別分析
データ解析13 線形判別分析
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
 
An introduction to statistical learning 4 logistic regression manu
An introduction to statistical learning 4 logistic regression manuAn introduction to statistical learning 4 logistic regression manu
An introduction to statistical learning 4 logistic regression manu
 
Rゼミ 3
Rゼミ 3Rゼミ 3
Rゼミ 3
 
正則化による尤度比推定法を応用した多値分類器の改良
正則化による尤度比推定法を応用した多値分類器の改良正則化による尤度比推定法を応用した多値分類器の改良
正則化による尤度比推定法を応用した多値分類器の改良
 
モンテカルロ法と情報量
モンテカルロ法と情報量モンテカルロ法と情報量
モンテカルロ法と情報量
 
PRML4.3
PRML4.3PRML4.3
PRML4.3
 

Mehr von Hirotaka Hachiya

Mehr von Hirotaka Hachiya (14)

人工知能2018 強化学習の応用
人工知能2018 強化学習の応用人工知能2018 強化学習の応用
人工知能2018 強化学習の応用
 
人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎
 
AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎
 
データ解析14 ナイーブベイズ
データ解析14 ナイーブベイズデータ解析14 ナイーブベイズ
データ解析14 ナイーブベイズ
 
データ解析12 k平均法
データ解析12 k平均法データ解析12 k平均法
データ解析12 k平均法
 
データ解析8 主成分分析の応用
データ解析8 主成分分析の応用データ解析8 主成分分析の応用
データ解析8 主成分分析の応用
 
データ解析5 単回帰分析
データ解析5 単回帰分析データ解析5 単回帰分析
データ解析5 単回帰分析
 
データ解析3 最適化の復習
データ解析3 最適化の復習データ解析3 最適化の復習
データ解析3 最適化の復習
 
データ解析2 線形代数の復習
データ解析2 線形代数の復習データ解析2 線形代数の復習
データ解析2 線形代数の復習
 
データ解析1 ベクトルの復習
データ解析1 ベクトルの復習データ解析1 ベクトルの復習
データ解析1 ベクトルの復習
 
人工知能12 確率モデル
人工知能12 確率モデル人工知能12 確率モデル
人工知能12 確率モデル
 
人工知能13 deep learning
人工知能13 deep learning人工知能13 deep learning
人工知能13 deep learning
 
人工知能10 サポートベクトルマシン
人工知能10 サポートベクトルマシン人工知能10 サポートベクトルマシン
人工知能10 サポートベクトルマシン
 
人工知能11 カーネルモデル
人工知能11 カーネルモデル人工知能11 カーネルモデル
人工知能11 カーネルモデル
 

データ解析6 重回帰分析