SlideShare ist ein Scribd-Unternehmen logo
1 von 59
機械学習を用いた株式ファクター投資
日本テクニカルアナリスト協会セミナー
2019/8/9
アウトライン
・株価予測の方法論
・機械学習を用いた株価予測
・深層学習を用いた実証分析
・深層学習の課題と解決手法
2
アウトライン
・株価予測の方法論
・機械学習を用いた株価予測
・深層学習を用いた実証分析
・深層学習の課題と解決手法
3
4
方法論
• 時系列予測
• クロスセクション予測
データ
• テクニカル
• ファンダメンタルズ
• オルタナティブ
手法
• パラメトリック
• ノンパラメトリック
効率的市場仮説(EMH)
Weak:テクニカル、Semi Strong:ファンダメンタルズ、Strong:全てのデータ
に基づく分析によって超過収益は獲得できない。Fama (1970)
株価予測手法のサマリー
株価予測のための方法論
投資ユニバース
時
系
列
予
測
クロスセクション予測
銘柄A 銘柄B ・・・
今月
前月
・
・
・
・
過去(既知)のデータ
✔ 過去データからの予測で最も高い(プラス)
リターンの銘柄を買う。
最も簡単な例:AR(1)モデル
𝑟t:時点tのリターン、 𝑥 𝑡:リターン以外のデータ
𝑟t = 𝑓(𝑟𝑡−1, … , 𝑥 𝑡−1, … )
𝑟t = 𝛼𝑟𝑡−1 + 𝑐 + 𝜀𝑡
✔ いかに高精度の𝑓を見つけ出すか
クロスセクション予測時系列予測
✔ いかに良質な魅力度(組み合わせ)を見つけ出すか
最も簡単な例:分位ポートフォリオ
割安割高
売り 買い
最も魅力的な分位を買い、逆を売り。
第1分位第5分位
✔ ある基準でユニバース内で比較して、
相対的に魅力的な銘柄を買う。
先月末時点のPBRでユニバースをソートする。
5
“… and the cross-section of expected returns“ Harvey et,al. [2016] Review of Financial Studies
✔ ある基準=ファクターと呼ばれ、2012年までに少なくとも316のファクターが試され、
さらにそれらのファクターの大部分は過去10年のものであることが報告されている。
クロスセクション予測の基準としてのファクター
✔ パラメトリック(回帰分析)の枠組みでの検証が多数。
6
ファイナンス、会計、経済の専門誌に掲載された 79 の論文からクロスセクショナルな株式リターンを予測する。
97 の予測変数の、次の期間における予測力を比較する。
1. 元となる論文のサンプル期間(In-Sample)
2. 元となる論文のサンプル期間後で、論文出版前の期間(Out of-Sample)
3. 論文出版後の期間(Post-Publication)
“Does academic research destroy stock return predictability?” McLean and Pontiff [2016] J of Finance
97の各予測変数に対して、元の論文で高いリターンであった上位 20%ロングと下位 20%ショートに基づく
ロング/ショートポートフォリオを構築。
その結果、ロング/ショートポートフォリオのリターンは、2.のアウトオブサンプルでは 26%減少し、3.の論文出版後には
58%低下する。
つまり、両者の差の約 32%が出版効果の上限である。そのためリターンの予測可能性は完全に消滅するという仮説は
棄却されるものの、出版後の予測可能性は変わらないという仮説も棄却された。
クロスセクション予測の基準としてのファクター
7
アウトライン
・株価予測の方法論
・機械学習を用いた株価予測
・深層学習を用いた実証分析
・深層学習の課題と解決手法
8
9
ROE
1か月リターン
●
●
●
相対魅力度
割安系
成長系
クオリティ系
テクニカル系
人間の判断による
ファクター抽出(分類)
線形予測(回帰分析)
ファクター群 ファクター抽出 相対魅力度算出
✓ 買いも売りも対等に評価。
✓ ファクターを単調に評価。
従来の株式マルチファクター運用
10
従来の株式マルチファクター運用
ROE
1か月リターン
●
●
●
相対魅力度
割安系
成長系
クオリティ系
テクニカル系
人間の判断による
ファクター抽出(分類)
線形予測(回帰分析)
ファクター群 ファクター抽出 相対魅力度算出
✓ 買いも売りも対等に評価。
✓ ファクターを単調に評価。
ファクターを絞らず、大量のファクターから機械学習
によりファクター群の非線形な関係をとらえたい。
11
相対魅力度
ROE
1か月リターン
●
●
●
・
・
・
・
・
・
・
・
・
・
・
・
・
・
・
深層学習で有効なファクターを段階的に抽出
(人間の判断を入れない)
非線形予測(深層学習)
ファクター群 ファクター抽出 相対魅力度算出
✓ 買いも売りを別評価。
✓ ファクターを非単調に評価。
アウトライン
・株価予測の方法論
・機械学習を用いた株価予測
・深層学習を用いた実証分析
・深層学習の課題と解決手法
12
「Deep Factor Model」
Kei Nakagawa, Takumi Uchida and Tomohisa Aoshima,
3rd Workshop on MIDAS@ECML-PKDD 2018 ([preprint] arXiv:1810.01278)
✓ Deep Learningを用いたマルチファクターモデルによる相対魅力度の有効性の検証
✓ 80個のファクターを用いて、1カ月先の将来リターンの順位による魅力度を予測
✓ 投資対象ユニバース:TOPIX構成銘柄(2006年-2016年、月次)
✓ 深層学習は線形のファクターモデル、他の機械学習の手法をアウトパフォームした
実証分析 その1
13
✓ 実務的によく使う5つのファクターと
その特徴量(ディスクリプター)を16個使用。
✓ 16個の特徴量の四半期ごとの過去5時点、
16 × 5 = 80個の特徴量を使用。
No ディスクリプター(特徴量) ファクター
1 過去60カ月ボラティリティ リスク
2 市場ベータ リスク
3 歪度 リスク
4 ROE クオリティ
5 ROA クオリティ
6 アクルーアルズ クオリティ
7 負債比率 クオリティ
8 過去60カ月リターン モメンタム
9 過去12カ月-直近1カ月リターン モメンタム
10 過去1カ月リターン モメンタム
11 PSR バリュー
12 PER バリュー
13 PBR バリュー
14 PCFR バリュー
15 時価総額 サイズ
16 ILLIQ サイズ
深層学習を用いた株式マルチファクター運用の実証分析
14
モデル 概要
深層学習 隠れ層が(80-50-10),(80-80-50-50-10-10)の全結合のネットワーク
深層学習 活性化関数はランプ関数(ReLU)、Tensorflowを使用
線形モデル “sklearn.linear_model.LinearRegression”
サポートベクター回帰モデル “sklearn.svm.SVR”
ランダムフォレスト “sklearn.ensemble.RandomForestRegressor”
✓ Tensorflowおよびsklearnを用いて実装。
✓ 深層学習の有効性を検証するため、線形モデル、非線形モデルをベンチマークとし検証。
✓ 各モデルの相対魅力度の5分位 - 1分位ポートフォリオの収益性を評価。
✓ パラメータは言及のないものはデフォルト値を使用
深層学習を用いた株式マルチファクター運用の実証分析
15
ディスクリプター
1,2,… 80
2006年3月
TOPIX
構成銘柄
パーセンタイル
ランキング
(ディスクリプター毎)
パーセンタイル
ランキング
2006年2月
TOPIX
構成銘柄
パーセンタイル
ランキング
(ディスクリプター毎)
パーセンタイル
ランキング
1996年2月
TOPIX
構成銘柄
パーセンタイル
ランキング
(ディスクリプター毎)
パーセンタイル
ランキング
1カ月先リターン銘柄時点
…
✓ 訓練データ(1セット)
・ 特徴量:80個のディスクリプター
・ 教師データ:1か月先リターン
✓ 過去120か月分の訓練データを用いて学習。
✓ 各時点において、データをパーセンタイル化
(相対魅力度のための前処理)
✓ 予測は2006年~2016年で行う。
例)2006年4月の訓練データセット
特徴量 教師データ
訓練データ
セット:1
訓練データ
セット:2
・
・
・
訓練データ
セット:120
深層学習を用いた株式マルチファクター運用の実証分析
16
< 平均絶対リターン> ※年率換算
✓ 絶対リターン、R/R(リスクリターン)
・ 他の非線形モデルに対して深層学習の結果は良好。
・ 線形モデルも悪くない。ただし、非線形モデルのパラメータはデフォルト値。
⇒下手な非線形モデルを使うなら線形でも良い。
深層学習を用いた株式マルチファクター運用の実証分析
17
< R/R > ※年率換算
「深層学習を用いたマルチファクター運用の実証分析」
阿部真也, 中川慧
第21回金融情報学研究会 (https://sigfin.org/021-03/)
✓ Deep Learningを用いたマルチファクターモデルによる相対魅力度の有効性の検証
✓ 33個のファクターを用いて、将来5営業日先の将来リターンの順位による魅力度を予測
✓ 投資対象ユニバース:TOPIX500構成銘柄(2013年-2017年、日次)
✓ 深層学習は線形のファクターモデル、他の機械学習の手法をアウトパフォームした
深層学習を用いた株式マルチファクター運用の実証分析
18
No. 特徴量 (ディスクリプター) No. 特徴量 (ディスクリプター) No. 特徴量 (ディスクリプター)
1 当日リターン 12 過去20日/過去60日の売買金額 23 CF/P
2 対2日前リターン 13 営業利益予想の変化(対5日前) 24 ROE
3 対3日前リターン 14 営業利益予想の変化(対10日前) 25 ROA
4 対5日前リターン 15 営業利益予想の変化(対20日前) 26 ROIC
5 対10日前リターン 16 目標株価の変化(対5日前) 27 アクルーアルズ
6 対20日前リターン 17 目標株価の変化(対10日前) 28 総資産回転率
7 対40日前リターン 18 目標株価の変化(対20日前) 29 流動比率
8 対60日前リターン 19 B/P 30 自己資本比率
9 過去60日の平均売買金額 20 E/P 31 総資産成長率
10 過去5日/過去60日の売買金額 21 配当利回り 32 CAPEX成長率
11 過去10日/過去60日の売買金額 22 S/P 33 Investment to Asset
✓ 実務でよく使用すると思われる33個のディスクリプターを使用
✓ TOPIX500構成銘柄に対し、各時点(日次系列)で計算し、使用。
※ただし、No.19以降は毎月末に値が変わる月次データ
深層学習を用いた株式マルチファクター運用の実証分析
19
・・・ ・・・
・・・ 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 ・・・
: :
: :
特徴量 教師データ
ポートフォリオの20%保有
ポートフォリオの20%保有
ポートフォリオの20%保有
ポートフォリオの20%保有
ポートフォリオの20%保有
特徴量 教師データ
ポートフォリオの20%保有
(学習あり)
特徴量 教師データ
ポートフォリオの20%保有
(学習あり)
特徴量 教師データ
t+11t+5 t+6 t+7 t+8 t+9 t+10t-1 t t+1 t+2 t+3 t+4
時点
t-7 t-6 t-5 t-4
・・・
訓練データ
1000セット
訓練データ
1000セット
[train1]
:
[train1000]
[train1]
:
リバランス
・
・
・
検証期間:2013年~2017年 ※寄り基準
5本の合成ポートフォリオの日次リターンを計測
✓ 日々、予測スコアを計算 ⇒ 毎営業日ポートフォリオの20%を入れ替えていく戦略
深層学習を用いた株式マルチファクター運用の実証分析
20
モデル 隠れ層(Dropout) エポック数
DNN_1
500 – 200 – 100 – 50 – 10
(50% – 40% – 30% – 20% – 10%)
20
DNN_2
500 – 200 – 100 – 50 – 10
(50% – 40% – 30% – 20% – 10%)
30
DNN_3
200 – 200 – 100 – 100 – 50
(50% – 50% – 30% –30% – 10%)
20
DNN_4
200 – 200 – 100 – 100 – 50
(50% – 50% – 30% – 30% – 10%)
30
DNN_5
300 – 300 – 150 – 150 – 50
(50% – 50% – 30% – 30% – 10%)
20
DNN_6
300 – 300 – 150 – 150 – 50
(50% – 50% – 30% – 30% – 10%)
30
・ 深層学習の構造
✓ 全結合型のフィードフォワード
✓ 活性化関数:ReLU
深層学習を用いた株式マルチファクター運用の実証分析
21
・ ランダムフォレスト
✓ 「sklearn.ensemble.RandomForestRegressor」
-特徴量の数:max_features
-木の数:n_estimators
-深さ:max depth
モデル 特徴量の数 木の数 深さ
RF_1 11 1000 3
RF_2 11 1000 5
RF_3 11 1000 7
・ リッジ回帰
✓ 「sklearn.linear model.Ridge」
-正則化パラメータ:alpha
モデル 正則化パラメータ
RR_1 0.1
RR_2 1.0
RR_3 10.0
< 平均絶対リターン> ※年率換算
✓ 絶対リターン、 R/R(リスクリターン)
・ 絶対リターンは、DNNは水準の違いが相対的に大きい。一方、R/Rは総じて、DNNが良い。
⇒ DNNは買い、売りの両方で収益獲得の機会がある
・ エポック数の違い(20 or 30)では、総じて20回が良い
⇒ (本研究でのパターンにおいては、) 30回は過学習。
深層学習を用いた株式マルチファクター運用の実証分析
22
< R/R>
「グローバル株式市場における深層学習を用いたマルチファクター運用の実証分析」
阿部真也, 中川慧
第33回人工知能学会全国大会
https://www.jstage.jst.go.jp/article/pjsai/JSAI2019/0/JSAI2019_4Rin135/_article/-char/ja/
✓ Deep Learningを用いたマルチファクターモデルによる相対魅力度の有効性の検証
✓ 20個のファクターを用いて、1カ月先の将来リターンの順位による魅力度を予測
✓ 投資対象ユニバース:
北米:MSCI Americas
ヨーロッパ・中東:MSCI Europe & Middle East
アジアパシフィック:MSCI Pacific
(2005年-2017年、月次)
✓ 深層学習は線形のファクターモデル、他の機械学習の手法をアウトパフォームした
実証分析 その3
23
No. 特徴量 (ファクター) No. 特徴量 (ファクター)
1 株価純資産倍率 11 流動比率
2 株価収益率 12 自己資本比率
3 配当利回り 13 総資産回転率
4 株価売上高倍率 14 CAPEX成長率
5 株価キャッシュフロー倍率 15 EPS リビジョン (対1か月)
6 自己資本利益率 16 EPS リビジョン (対3か月)
7 総資本利益率 17 1か月株価モメンタム
8 投下資本利益率 18 12か月株価モメンタム
9 アクルーアルズ 19 ボラティリティ
10 総資産成長率 20 歪度
※No.1,2,4,5:逆数を使用. No.18:直近1か月除く
深層学習を用いた株式マルチファクター運用の実証分析
✓ グローバルで有効と思われる20個のディスクリプターを使用
✓ 各国のMSCI指数構成銘柄に対し、各時点(月次系列)で計算し、使用。
24
予測に用いたモデル
✓ 深層学習(DNN)
タイプ 隠れ層 ドロップアウト
FFNN 150 – 150 – 100 – 100 – 50 – 50 50%
✓ ランダムフォレスト(RF)
特徴量数 木の数 深さ
20 1000 5
✓ リッジ回帰(RR)
正則化係数
1.0
深層学習を用いた株式マルチファクター運用の実証分析
25
※評価期間:2005年1月~2017年12月
ポートフォリオは等金額で構築
深層学習を用いた株式マルチファクター運用の実証分析
✓ R/R(リスクリターン)
・ 深層学習のパフォーマンスが良好
(傾向として、Return水準:高 / Risk水準:低)
・ 市場効率性が高い地域程、収益獲得の機会が低下
✓ 絶対リターン
・ 地域ごとにバラつきがある
・ 市場効率性が高い地域程、収益獲得の機会が低下
26
アウトライン
・株価予測の方法論
・機械学習を用いた株価予測
・深層学習を用いた実証分析
・深層学習の課題と解決手法
27
説明 (Explanation)・解釈可能性 (Interpretablity):
予測結果の根拠や、予測モデルの予測過程を人間に説明する必要がある。
データ量/計算量(Computation cost):
大量のデータやGPUを多用する必要がある。
安全性 (Security):
訓練データに対する悪意のある介入や改竄などで、
予測モデルが改変されないようにする必要がある。
プライバシ (Privacy):
個人情報を秘匿と、データ分析とを両立する必要がある。
公平性 (Fairness):
予測モデルが、社会的な公平性を保つようにする必要がある。
深層学習の課題
28
・ 透明性の原則:
開発者は、AI システムの入出力の検証可能性および判断結果の説明可能性に留意する。
・ アカウンタビリティの原則:
開発者は、利用者を含むステークホルダに対し、アカウンタビリティを果たすよう努める。
✓ 総務省は AI の利用の増進とそのリスクの抑制のために「AI 開発ガイドライン案」を2017年に策定。
ここには以下の原則が盛り込まれている。
✓ EU においても、同様の内容が General Data Protection Regulation(GDPR)として
2018年5月より施行。(特に GDPR-22 が上記のガイドラインに対応)
AIの解釈性、説明責任
29
忖度せよ
予測結果
✓ 深層学習は様々な分野で、高い精度をあげているが、判断根拠がよくわからないと言われている。
✓ 深層学習(も)は、悪意ある攻撃によって誤認させることができる。
“Intriguing properties of neural networks“ ICLR 2015
深層学習の判断根拠を理解することで、
こうした攻撃を受けた際に気づける可能性がある。
テナガザルパンダ ノイズ
深層学習の解釈性
30
✓ モデルの精度を落とさず、深層学習をある程度説明する手法として次のようなものがある。
(1) ネットワークの出力を最大化する入力を作成する
(Activation Maximization)
(2) 入力に対する感度を分析する
(Sensitivity Analysis)
(3) 出力から入力を逆にたどり判断の根拠を提示
(Layer-wise Relevance Propagation;LRP)
深層学習の解釈手法
31
✓ モデルの精度を落とさず、深層学習をある程度説明する手法として次のようなものがある。
(1) ネットワークの出力を最大化する入力を作成する
(Activation Maximization)
https://distill.pub/2017/feature-visualization/
建物と空最も「建物と空」と判定されやすい画像
ネットワークの判断根拠をよく示す入力
→そのネットワークの最も理想的なインプット(代表例)は何か?
Googleの猫、Deep Dream
深層学習の解釈手法
32
✓ モデルの精度を落とさず、深層学習をある程度説明する手法として次のようなものがある。
(2) 入力に対する感度を分析する
(Sensitivity Analysis)
チーターどこを変えるとチーターでなくなるか?
https://pair-code.github.io/saliency/感度分析
→入力がちょっと変わったときに最も出力が変化する入力(感応度が高い)はどれか?
深層学習の解釈手法
33
✓ モデルの精度を落とさず、深層学習をある程度説明する手法として次のようなものがある。
(3) 出力から入力を逆にたどり判断の根拠を提示
(Layer-wise Relevance Propagation;LRP)
鳥
判
断
結
果
の
寄
与
度
予測の要因分解
ファクターモデルの観点から、
寄与度(要因分解)が解ることが最も嬉しい。
→その出力と判断したのは入力のどこに着目(根拠)したか?
http://www.heatmapping.org/slides/2018_CVPR_3.pdf
深層学習の解釈手法
34
LRPとは何か?
35
50%
30%
20%
どのノードをどれだけ信用(Relevance)したか
=
100% これは学習済のモデルからわかる
✓ 階層ごとに貢献を特定していく。
✓ 貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
LRPとは何か?
36
50%
=
100% これは学習済のモデルからわかる
30%
50%
20%
どのノードをどれだけ信用(Relevance)したか
✓ 階層ごとに貢献を特定していく。
✓ 貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
LRPとは何か?
37
50%
これは学習済のモデルからわかる
15%
25%
10%
どのノードをどれだけ信用(Relevance)したか
✓ 階層ごとに貢献を特定していく。
✓ 貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
LRPとは何か?
38
これは学習済のモデルからわかる
20%
30%
20%
30%
どのノードをどれだけ信用(Relevance)したか
✓ 階層ごとに貢献を特定していく。
✓ 貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
LRPとは何か?
39
これは学習済のモデルからわかる
30%
35%
30% 20%
=
100%
どのノードをどれだけ信用(Relevance)したか
✓ 階層ごとに貢献を特定していく。
✓ 貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
LRPとは何か?
40
これは学習済のモデルからわかる
30%
35%
30%
20%
40%
40%
=
100%
どのノードをどれだけ信用(Relevance)したか
✓ 階層ごとに貢献を特定していく。
✓ 貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
LRPとは何か?
41
これは学習済のモデルからわかる
20%
40%
40%
=
100%
20%
30%
40%
10%
判
断
結
果
の
寄
与
度
予
測
の
要
因
分
解
=
どのノードをどれだけ信用(Relevance)したか
✓ 階層ごとに貢献を特定していく。
✓ 貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
隠れ層 [20, 10, 5]の深層学習で学習。
✓ LRPが本当に出力の根拠を示すのか簡単な非線形問題をもとに検証。
教師データと学習データの間の関係は以下の通り。
入力層 出力層
・
・
・
・
・
・
・
・
・
・
・
・
隠れ層
・
・
・
・
・
・
・
・
・
・
・
・
3,000個
𝑦 = 10𝑥1 + 5𝑥2 − 5𝑥3 𝑥4 𝑥5
教師データ:𝑦 学習データ:𝑥1~𝑥10(𝑥6~𝑥10はノイズ)を[0,1]の一様乱数から3,000個生成。
LRPの回帰問題での妥当性の検証
42
変数 X1 X2 X3 X4 X5
LRPの平均 7.47 3.98 -1.78 -1.68 -1.89
寄与度 39.52% 21.06% -9.42% -8.89% -10.00%
変数 X6 X7 X8 X9 X10
LRPの平均 0.06 -0.66 0.71 0.59 0.08
寄与度 0.32% -3.49% 3.76% 3.12% 0.42%
✓ 意味のある変数の寄与が大きい。また𝑥2は𝑥1のおよそ1/2、 𝑥3 + 𝑥4 + 𝑥5はおよそ𝑥2とインパクトも近似。
✓ LRPが本当に出力の根拠を示すのか簡単な非線形問題をもとに検証。
教師データと学習データの間の関係は以下の通り。
𝑦 = 10𝑥1 + 5𝑥2 − 5𝑥3 𝑥4 𝑥5
学習後のネットワークと3,000個の教師データからLRPで入力の平均と寄与度を計算。
教師データ:𝑦 学習データ:𝑥1~𝑥10(𝑥6~𝑥10はノイズ)を[0,1]の一様乱数から3,000個生成。
LRPの回帰問題での妥当性の検証
43
相対魅力度
ROE
1か月リターン
・
・
・
・
・
・
●
●
●
・
・
・
・
・
・
・
・
・
深層学習で有効なファクターを段階的に抽出
(人間の判断を入れない)
非線形予測
ファクター群 ファクター抽出 相対魅力度
LRP要因分解 相対魅力度
マルチファクター・モデルを深層学習によって非線形化。
リターンモデル
リスクモデル
Deep Factor Model
44
✓ 要因分解例(LRP)
Risk Quality Momentum Value Size
Spearman 0.14 0.22 0.24 0.08 0.14
Kendall 0.10 0.15 0.17 0.06 0.10
0%
5%
10%
15%
20%
25%
30%
35%
Risk
Quality
MomentumValue
Size
最も高いリターン 第1分位
✓ 要因分解例(順位相関)
Deep Factor Model
45
深層学習の発展
46
幅
の
連
続
化
より俯瞰的/抽象的な理解
層の連続化
Neural ordinary differential equations
積
分
表
現
理
論
微分
積
分
カ
ー
ネ
ル
化
深層学習の発展→層の連続化
47
離散から連続へ
時系列データの欠損値に対応できない
入力データの時間間隔が不揃いな場合に対応できない
任意の2時点間のデータについて、パターン学習が可能な新モデルの提案
飛び越えて伝播ResNet
連続化
確率化
ODE Net
SDE Net
Chen, Tian Qi, et al. "Neural ordinary differential equations." Advances in Neural Information Processing Systems. 2018.
𝑓(𝑥 𝑡)𝑥 𝑡 𝑥 𝑡+1 = 𝑥 𝑡 + 𝑓(𝑥 𝑡)
𝑑𝑥 𝑡
𝑑𝑡
= 𝑓(𝑡, 𝑥 𝑡)
𝑑𝑥 𝑡
𝑑𝑡
= 𝑓 𝑡, 𝑥 𝑡 + 𝜀𝑡
+
Liu, Xuanqing, et al. "Neural SDE: Stabilizing Neural ODE Networks with Stochastic Noise."
arXiv preprint arXiv:1906.02355 (2019).
48
深層学習の発展→幅の連続化
𝐾 𝑙 𝑥, 𝑥′ = 𝜎 𝑏
2
+ 𝜎 𝑤
2 𝐹 𝜙(𝐾 𝑙−1 𝑥, 𝑥 , 𝐾 𝑙−1 𝑥, 𝑥′ , 𝐾 𝑙−1 𝑥′, 𝑥′ )
引数を𝑙 − 1層のカーネルとしたとき、活性化関数𝜙によって異なる関数𝐹 𝜙を用いて表現できる。
𝐾 𝑙 𝑥, 𝑥′ = 𝜎 𝑏
2
+
𝜎 𝑤
2
2
𝐾𝑙−1 𝑥, 𝑥 𝐾𝑙−1 𝑥′, 𝑥′ (sin 𝜃 𝑙−1 + 𝜋 − 𝜃 𝑙−1 cos 𝜃 𝑙−1)
𝜃 𝑙−1 =
𝐾 𝑙−1
𝑥, 𝑥′
𝐾 𝑙−1 𝑥, 𝑥 𝐾 𝑙−1 𝑥′, 𝑥′
𝐹 𝜙は活性化関数がReLUの場合には以下のように解析的に書け、
その他の場合には数値的に計算できる。
中間層に無限個ユニット数を持つ非線形関数(NN)に対応したカーネル関数が存在。
単層の場合; Neal [1994]
多層の場合; Cho and Saul [2009]
深層学習のベイズ推論化
✔ 隠れ層が多層の場合のニューラルネットワーク(深層学習)に対応するカーネル関数の導出
(Cho and Saul [2009])
✔ 深層学習カーネルを用いた深層ガウス過程回帰モデルの提案(Lee et, al.[2018])
・点推定である(信頼区間などの確率情報がない)
・ハイパーパラメータが多く、過学習しやすい
・収束の確認が難しく、モデル比較ができない
深層学習は様々な分野/タスクで非常に高い性能を挙げているが、下記をはじめ問題点も多くある。
深層学習のベイズ推論化、ガウス過程で表現するアプローチが注目されている。
✔ 隠れ層が単層の場合のニューラルネットワークに対応するカーネル関数の導出(Neal [1994])
・学習に大量のデータが必要
49
50
モデルができないこと、苦手なことを理解できる。
以上を踏まえて、一般に裾の厚い金融時系列データへの適用のため、
深層ガウス過程回帰から、深層t過程回帰への拡張と有効性の評価を行う。
予測に自信がない(=予測誤差が大きい)と
実際に予測も間違えやすい
深層ガウス過程回帰モデルの画像データ予測に対する予測誤差(横軸)と予測精度(縦軸)
しかも精度は深層学習と同程度。
Lee et, al.[2018]より抜粋
深層学習のベイズ推論化
ガウス過程
カーネル
関数
𝑥1 𝑥2
𝑥1
𝑥2
𝑥1𝑥2
ガウス過程のイメージ(サンプル)
…
…
…
𝐾
【1】カーネル関数によって類似度を計算
【2】カーネル関数を共分散行列とする
ガウス分布から𝑓のサンプルを得る
「近い」データは似たような値をとる。
𝜇
2
×
標
準
偏
差
データ点が多いほど、予測誤差は小さく、
データ点が少ないほど、予測誤差は大きい。
途中でサンプルの傾向が変わった場合に対応可能
外挿に強い
51
ガウス過程回帰モデル
𝑦𝑖 = 𝑓𝐺𝑃 𝒙𝑖 + 𝜀𝑖 𝑓𝐺𝑃~𝑁(𝝁(𝑿), 𝑲(𝑥, 𝑥0))
𝑓𝐺𝑃 + 𝜀𝑖~𝑁(𝝁 𝑿 , 𝑲 𝑥, 𝑥0 + 𝜎2 𝑰)
𝑦
𝑓𝐺𝑃
∗ ~𝑁
𝜇(𝑿)
𝜇(𝒁)
,
𝐾 𝑿, 𝑿 + 𝜎2
𝑰 𝐾 𝒁, 𝑿 𝑇
𝐾 𝒁, 𝑿 𝐾 𝒁, 𝒁
𝑝 𝑓𝐺𝑃
∗ ȁ 𝑦 =
𝑝 𝑓𝐺𝑃
∗
, 𝑦
𝑝 𝑦
~𝑁(ො𝜇, ෠Σ)
ො𝜇 = 𝐾 𝒁, 𝑿 𝑇 𝐾 𝑿, 𝑿 + 𝜎2 𝑰 −1 𝑦 − 𝜇 𝒁 + 𝜇(𝒁)
෠Σ = 𝐾 𝒁, 𝒁 𝑇 − 𝐾 𝒁, 𝑿 𝑇 𝐾 𝑿, 𝑿 + 𝜎2 𝑰 −1 𝐾 𝒁, 𝑿
𝜀𝑖~𝑁(0, 𝜎2)
ガウス過程を使った回帰モデルを考える。
ガウス分布の畳込みはまたガウス分布であるので、
ここで、新しい観測値 𝒁 = 𝒛1, … , 𝒛 𝑚
𝑇が与えられたとき、その予測値𝑓𝐺𝑃
∗
= 𝑓𝐺𝑃
∗
(𝒛1), … , 𝑓𝐺𝑃
∗
(𝒛 𝑚) 𝑇と
𝒚の同時分布は、𝑿と𝒁のカーネルを考えることで、再びガウス過程となり、
𝒚の下での予測値𝑓𝐺𝑃
∗
の分布は、条件付き分布を計算することで、
分布があるので最尤法で推定可能
,
52
t過程
メリット:
外れ値を考慮できる。
ガウス過程とほぼ同じ性質がある
デメリット:
自由度のパラメータが増える。
t過程 ガウス過程
𝐾(𝑠, 𝑡) = min(s, t) ;Wiener processの平均0のガウス過程とt過程(自由度5)を100サンプル生成
𝑇 𝜈, 𝝁, 𝑲 =
Γ
𝜈 + 𝑛
2
𝜈 − 2 𝜋
𝑛
2Γ
𝜈
2
det 𝑲 −
1
2 × 1 +
𝒚 − 𝝁 𝑇
𝑲−1
𝒚 − 𝝁
𝜈 − 2
−
𝜈+𝑛
2
t 過程とガウス過程の違い
指数関数の定義から
𝜈 → ∞でガウス分布へ収束。
・・・𝑛 個のデータを 𝑛 次元t分布として表現
53
t過程回帰モデル
𝑦𝑖 = 𝑓𝑇𝑃 𝒙𝑖 + 𝜀𝑖 𝑓𝑇𝑃~𝑇(𝜈, 𝝁(𝑿), 𝑲(𝑥, 𝑥0))
𝑓𝑇𝑃 + 𝜀𝑖 ≈ 𝑇(𝜈, 𝝁 𝑿 , 𝑲 𝑥, 𝑥0 + 𝜎2 𝑰)
𝑦
𝑓𝑇𝑃
∗ ~𝑇 𝜈,
𝜇(𝑿)
𝜇(𝒁)
,
𝐾 𝑿, 𝑿 + 𝜎2 𝑰 𝐾 𝒁, 𝑿 𝑇
𝐾 𝒁, 𝑿 𝐾 𝒁, 𝒁
𝑝 𝑓𝑇𝑃
∗ ȁ 𝑦 =
𝑝 𝑓𝑇𝑃
∗
, 𝑦
𝑝 𝑦
~𝑇( Ƹ𝜈, ො𝜇, ෠Σ)
ො𝜇 = 𝐾 𝒁, 𝑿 𝑇 𝐾 𝑿, 𝑿 + 𝜎2 𝑰 −1 𝒚 − 𝜇 𝒁 + 𝜇(𝒁)
෠Σ =
𝜈 − 𝛽 − 2
𝜈 − 𝑛 − 2
𝐾 𝒁, 𝒁 𝑇 − 𝐾 𝒁, 𝑿 𝑇 𝐾 𝑿, 𝑿 + 𝜎2 𝑰 −1 𝐾 𝒁, 𝑿
𝜀𝑖~𝑇(𝜈, 0, 𝜎2)
t過程を使った回帰モデルを考える。
t分布の畳込みはまたt分布にならないが、近似的に、
ここで、新しい観測値 𝒁 = 𝒛1, … , 𝒛 𝑚
𝑇が与えられたとき、その予測値𝑓𝑇𝑃
∗
= 𝑓𝑇𝑃
∗
(𝒛1), … , 𝑓𝑇𝑃
∗
(𝒛 𝑚) 𝑇と
𝒚の同時分布は、𝑿と𝒁のカーネルを考えることで、再びt過程となり、
𝒚の下での予測値𝑓𝑇𝑃
∗
の分布は、条件付き分布を計算することで、(論文参照)
Ƹ𝜈 = 𝜈 + 𝑚 𝛽 = 𝒚 − 𝜇 𝑿
𝑇
𝐾 𝑿, 𝑿 −𝟏
𝒚 − 𝜇 𝑿
分布があるので最尤法で推定可能
,
54
実証分析
各国の株式指数(TPX,S&P,DAX)の月次データを用いて、深層ガウス過程回帰モデルをベンチマークに、
深層t過程回帰モデルの有効性を確認する。
TPX SPX DAX
年率リターン[%] 2.37 7.38 8.15
年率リスク[%] 18.02 14.24 18.32
歪度 -0.47 -0.82 -0.56
尖度 5.22 6.2 5.69
Jarque-Beta統計量 12.94 41.75 23.67
p-値[%] 0.155 0 0.0007
・データは2018/6末から直近12年分 (144 サンプル) を使用し、うち推定に7割、テストに3割使用する。
全期間における各指数の統計量
各指数ともに正規性を満たさないため、t過程をあてはめる余地がある。
・各指数の配当利回り、PBR、PER、ROE、12-1 か月モメンタムを説明変数とし、
翌月のリターンを非説明変数とする。 55
実証分析
指数
Total GP TP GP TP GP TP
RMSE 0.3511 0.2158 1.0357 0.5076 0.2934 0.1134
MAE 0.2914 0.1622 0.891 0.4282 0.2489 0.0808
予測誤差(大) GP TP GP TP GP TP
RMSE 0.3561 0.2623 1.3646 0.6856 0.3285 0.139
MAE 0.2937 0.2079 1.3431 0.6674 0.2759 0.1014
予測誤差(小) GP TP GP TP GP TP
RMSE 0.3458 0.1524 0.565 0.2343 0.2553 0.08
MAE 0.2892 0.1142 0.4594 0.1999 0.2231 0.0602
TPX SPX DAX
GPはデータの非正規性により、異常値に振らされた予測を行うため、
TPよりも精度が悪いのでは。
精度の分析(1層)
指数 TPX SPX DAX
Total
RMSE 38.5% 51.0% 61.3%
MAE 44.3% 51.9% 67.5%
予測誤差(大)
RMSE 26.3% 49.8% 57.7%
MAE 29.2% 50.3% 63.2%
予測誤差(小)
RMSE 55.9% 58.5% 68.7%
MAE 60.5% 56.5% 73.0%
改善率
改善率
改善率
56
実証分析
SPXの予測誤差(Std)とRMSEとの関係(赤丸:GP、青丸:TP)
・先行研究同様に、金融データにおいても
予測誤差が大きいほど、
予測精度が悪くなっていることがわかる。
・他の指数でも同様の傾向。
57
実証分析
Total 1層 2層 3層 4層
RMSE 0.3511 0.4114 0.3790 0.3893
MAE 0.2914 0.3558 0.3267 0.3354
予測誤差(大) 1層 2層 3層 4層
RMSE 0.3561 0.4218 0.3559 0.3867
MAE 0.2937 0.3621 0.3008 0.3311
予測誤差(小) 1層 2層 3層 4層
RMSE 0.3458 0.4013 0.3997 0.3918
MAE 0.2892 0.3497 0.3514 0.3396
GP
Total 1層 2層 3層 4層
RMSE 0.2158 0.2222 0.1325 0.1385
MAE 0.1622 0.1651 0.1004 0.1104
予測誤差(大) 1層 2層 3層 4層
RMSE 0.2623 0.1619 0.1162 0.1432
MAE 0.2079 0.1238 0.0940 0.1171
予測誤差(小) 1層 2層 3層 4層
RMSE 0.1524 0.2674 0.1464 0.1340
MAE 0.1142 0.2045 0.1066 0.1041
TP
GPは層が深くなっても精度が改善するとは限らない。 一方で、TPは層が深くなると精度が改善傾向。
精度の分析(多層、TPX)
58
まとめ
59
✓ 画像や音声同様に、深層学習による株価予測モデルは、精度、収益性ともに線形モデル、
他の非線形モデルよりも良好な結果。
✓ また従来の深層学習の問題点であった解釈性等の問題・課題は解決されつつある。
✓ ネットワーク構造の高度化等が課題
「ファクター」という観点から機械学習(深層学習)を用いた株価予測手法を検討。
Ex. 月次、日次、グローバル市場
「Deep Recurrent Factor Model」
Kei Nakagawa, Tomoki Ito, Masaya Abe and Kiyoshi Izumi
AAAI-19 Network Interpretability for Deep Learning
https://arxiv.org/abs/1901.11493

Weitere ähnliche Inhalte

Was ist angesagt?

グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
 

Was ist angesagt? (20)

勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
金融リスクとポートフォリオマネジメント
金融リスクとポートフォリオマネジメント金融リスクとポートフォリオマネジメント
金融リスクとポートフォリオマネジメント
 
関数データ解析の概要とその方法
関数データ解析の概要とその方法関数データ解析の概要とその方法
関数データ解析の概要とその方法
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
CF-FinML 金融時系列予測のための機械学習
CF-FinML 金融時系列予測のための機械学習CF-FinML 金融時系列予測のための機械学習
CF-FinML 金融時系列予測のための機械学習
 
ブースティング入門
ブースティング入門ブースティング入門
ブースティング入門
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー階層ベイズと自由エネルギー
階層ベイズと自由エネルギー
 
最適化超入門
最適化超入門最適化超入門
最適化超入門
 
Nagoya.R #12 非線形の相関関係を検出する指標の算出
Nagoya.R #12 非線形の相関関係を検出する指標の算出Nagoya.R #12 非線形の相関関係を検出する指標の算出
Nagoya.R #12 非線形の相関関係を検出する指標の算出
 
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
 
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
 
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
 
為替と株の予測の話
為替と株の予測の話為替と株の予測の話
為替と株の予測の話
 

Ähnlich wie ファクター投資と機械学習

2015ファイナンス(女子大)⑧ppt
2015ファイナンス(女子大)⑧ppt2015ファイナンス(女子大)⑧ppt
2015ファイナンス(女子大)⑧ppt
Tsutomu TOBITA
 
CMSI計算科学技術特論B(4) アプリケーションの性能最適化の実例1
CMSI計算科学技術特論B(4) アプリケーションの性能最適化の実例1CMSI計算科学技術特論B(4) アプリケーションの性能最適化の実例1
CMSI計算科学技術特論B(4) アプリケーションの性能最適化の実例1
Computational Materials Science Initiative
 

Ähnlich wie ファクター投資と機械学習 (20)

Dynamic arms fx090623
Dynamic arms fx090623Dynamic arms fx090623
Dynamic arms fx090623
 
ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介
 
2015ファイナンス(女子大)⑧ppt
2015ファイナンス(女子大)⑧ppt2015ファイナンス(女子大)⑧ppt
2015ファイナンス(女子大)⑧ppt
 
MANABIYA Machine Learning Hands-On
MANABIYA Machine Learning Hands-OnMANABIYA Machine Learning Hands-On
MANABIYA Machine Learning Hands-On
 
Hivemallで始める不動産価格推定サービス
Hivemallで始める不動産価格推定サービスHivemallで始める不動産価格推定サービス
Hivemallで始める不動産価格推定サービス
 
2015アントレファイナンス(九大)⑨⑩ppt
2015アントレファイナンス(九大)⑨⑩ppt2015アントレファイナンス(九大)⑨⑩ppt
2015アントレファイナンス(九大)⑨⑩ppt
 
CMSI計算科学技術特論B(4) アプリケーションの性能最適化の実例1
CMSI計算科学技術特論B(4) アプリケーションの性能最適化の実例1CMSI計算科学技術特論B(4) アプリケーションの性能最適化の実例1
CMSI計算科学技術特論B(4) アプリケーションの性能最適化の実例1
 
関東CV勉強会20140802(Face Alignment at 3000fps)
関東CV勉強会20140802(Face Alignment at 3000fps)関東CV勉強会20140802(Face Alignment at 3000fps)
関東CV勉強会20140802(Face Alignment at 3000fps)
 
Sano tokyowebmining 201625_v04
Sano tokyowebmining 201625_v04Sano tokyowebmining 201625_v04
Sano tokyowebmining 201625_v04
 
【DELPHI / C++BUILDER STARTER チュートリアルシリーズ】 シーズン2 Delphi の部 第2回 ‟変数と型„
【DELPHI / C++BUILDER STARTER チュートリアルシリーズ】 シーズン2 Delphi の部 第2回 ‟変数と型„【DELPHI / C++BUILDER STARTER チュートリアルシリーズ】 シーズン2 Delphi の部 第2回 ‟変数と型„
【DELPHI / C++BUILDER STARTER チュートリアルシリーズ】 シーズン2 Delphi の部 第2回 ‟変数と型„
 
Optimization and simulation with DataRobot
Optimization and simulation with DataRobotOptimization and simulation with DataRobot
Optimization and simulation with DataRobot
 
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
 
リスクベースポートフォリオの高次モーメントへの拡張
リスクベースポートフォリオの高次モーメントへの拡張リスクベースポートフォリオの高次モーメントへの拡張
リスクベースポートフォリオの高次モーメントへの拡張
 
SSII2018TS: 大規模深層学習
SSII2018TS: 大規模深層学習SSII2018TS: 大規模深層学習
SSII2018TS: 大規模深層学習
 
シンクロン・グローバル価格管理ソリューション
シンクロン・グローバル価格管理ソリューションシンクロン・グローバル価格管理ソリューション
シンクロン・グローバル価格管理ソリューション
 
第9回 大規模データを用いたデータフレーム操作実習(3)
第9回 大規模データを用いたデータフレーム操作実習(3)第9回 大規模データを用いたデータフレーム操作実習(3)
第9回 大規模データを用いたデータフレーム操作実習(3)
 
ロジスティック回帰入門
ロジスティック回帰入門ロジスティック回帰入門
ロジスティック回帰入門
 
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処” WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
 
07232012需要予測モデル0.3 5
07232012需要予測モデル0.3 507232012需要予測モデル0.3 5
07232012需要予測モデル0.3 5
 
機械学習を使った時系列売上予測
機械学習を使った時系列売上予測機械学習を使った時系列売上予測
機械学習を使った時系列売上予測
 

Mehr von Kei Nakagawa

What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
Kei Nakagawa
 
RIC-NN:深層転移学習を用いたマルチファクター運用
RIC-NN:深層転移学習を用いたマルチファクター運用RIC-NN:深層転移学習を用いたマルチファクター運用
RIC-NN:深層転移学習を用いたマルチファクター運用
Kei Nakagawa
 

Mehr von Kei Nakagawa (17)

連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
 
Sigfin Neural Fractional SDE NET
Sigfin Neural Fractional SDE NETSigfin Neural Fractional SDE NET
Sigfin Neural Fractional SDE NET
 
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
 
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
 
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
 
IFTA2020 Kei Nakagawa
IFTA2020 Kei NakagawaIFTA2020 Kei Nakagawa
IFTA2020 Kei Nakagawa
 
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
 
RIC-NN:深層転移学習を用いたマルチファクター運用
RIC-NN:深層転移学習を用いたマルチファクター運用RIC-NN:深層転移学習を用いたマルチファクター運用
RIC-NN:深層転移学習を用いたマルチファクター運用
 
因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析
 
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
 
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
 
Economic Causal Chain and Predictable Stock Returns
Economic Causal Chain and Predictable Stock ReturnsEconomic Causal Chain and Predictable Stock Returns
Economic Causal Chain and Predictable Stock Returns
 
Stock price prediction using k* nearest neighbors and indexing dynamic time w...
Stock price prediction using k* nearest neighbors and indexing dynamic time w...Stock price prediction using k* nearest neighbors and indexing dynamic time w...
Stock price prediction using k* nearest neighbors and indexing dynamic time w...
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
 
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
 
GARCHSKモデルを用いた条件付き固有モーメントの実証分析
GARCHSKモデルを用いた条件付き固有モーメントの実証分析GARCHSKモデルを用いた条件付き固有モーメントの実証分析
GARCHSKモデルを用いた条件付き固有モーメントの実証分析
 
Risk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matricesRisk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matrices
 

ファクター投資と機械学習