SlideShare ist ein Scribd-Unternehmen logo
1 von 26
Downloaden Sie, um offline zu lesen
NAPLES; 非同期時系列の Lead-lag 効果推定のため
の新しい推定量
伊藤克哉1 中川慧2
1Preferred Newtworks
2 野村アセットマネジメント
第 26 回人工知能学会金融情報学研究会(SIG-FIN)
2021 年 3 月 5 日
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 1 / 26
目次
1 導入
高頻度取引の説明・Lead-Lag 効果の説明
Lead-Lag 効果推定における課題の説明
2 関連研究
Hoffman-Rosenbaum-Yoshida
Dobrev-Schaumburg
Dynamic Time Warping
3 手法
提案手法 NAPLES
提案手法の解釈
提案手法の数学的性質
4 実験
同期観測人工データにおける Lead-Lag 推定
非同期観測人工データの Lead-Lag 効果推定
非同期観測実データの Lead-Lag 効果推定
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 2 / 26
まとめスライド
研究対象
高頻度取引の裁定探索
問題
タイムスタンプの非同期性・計算量の膨大性・ラグの時間変化や
ノイズ
解決法
符号化した利回りを取引する戦略の利回りで Lead-Lag を検出
数学的性質・定性的性質を解析
結果
シミュレーションデータ・実データで有効性を示した
実為替データで定性的に見られる現象を確認した
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 3 / 26
導入 高頻度取引の説明・Lead-Lag 効果の説明
研究対象
高頻度取引
金融資産をアルゴリズムがミリ秒単位またはそれ以下で取引。
Lead-Lag 効果
2 つの資産価格を考えたときに、
一方の値動きが他方の値動きに先行または遅行すること。
Lead-Lag 効果の推定
Xt,Yt という時系列を観測したときに、
ラグ θ̂ = argmaxθCorr(Xt, Yt+θ) を計算すること。
例:
先物と現物の Lead-Lag 効果
同業種内の株価の Lead-Lag 効果
異なる取引所間の Lead-Lag 効果
外国為替における異なる通貨ペア間の Lead-Lag 効果
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 4 / 26
導入 Lead-Lag 効果推定における課題の説明
研究課題
Lead-Lag 効果の推定における課題
1 タイムスタンプの非同期性
Tick データでは注文があるごとに記録される。
→ タイムスタンプが揃わず、相関係数等の計算が困難。
2 データの膨大性
計算機・通信の高速化により蓄積するデータ量は膨大に。
→ 計算量が少ない Lead-Lag 推定アルゴリズムが必要。
3 ラグの時間変化
ラグは時間変化している [3]。
→ ラグの時間変化にも対応する Lead-Lag 推定アルゴリズムが必要。
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 5 / 26
関連研究 Dynamic Time Warping
関連研究 (Lead-Lag 効果の推定)
Lead-Lag 効果の推定における関連研究
資産 A, B の価格 Xt, Yt を時刻 {si}N
i=1, {tj}M
j=1 ⊂ [0, T] において観測。
1 Hoffman-Rosenbaum-Yoshida(2013)
非同期観測の時系列に対して共分散推定量を考案。それを最大化。
計算量のオーダーは O(|Θ|NM)∗
argmaxθ∈Θ
N−1
∑
i=1
M−1
∑
j=i
(Xsi+1 − Xsi )
(
Ytj+1 − Ytj
)
1{]tj−1+θ,tj+θ]∩]si−1,si]̸=∅}
2 Dobrev-Schaumburg(2017)
取引がある・ないの {0, 1} の時系列に対して内積を最大化。
計算量のオーダーは O(|Θ|T)
argmaxθ∈Θ
∑
T−|θ|
i=|θ|
1{A active at i + θ} · 1{B active at i}
∑
T−|θ|
i=|θ|
1{A active at i + θ} ∧ ∑
T−|θ|
i=|θ|
1{B active at i}
.
∗タイムスタンプがソートされているときは O(|Θ| max{N, M}) にもできる
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 6 / 26
関連研究 Dynamic Time Warping
関連研究 (MTDW)
3 Ito-Sakemoto(2020)
DTW の多次元バージョンを計算して直接推定
ni と mi は対応している時刻とみなせるので mi − ni を計算するこ
とによって、ラグの候補 Θ を用いずに Lead-Lag 効果が直接推定が
可能。
MDTW
(
{Xi}N
i=1 , {Yj}M
j=1
)
:= min
nl,ml
L
∑
l=1
d










Xnl
Xnl+1
.
.
.
Xnl+w





,





Yml
Yml+1
.
.
.
Yml+w










s.t. n1 < · · · < nL, m1 < · · · < mL, |ni+1 − ni| + |mi+1 − mi| ≤ 1
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 7 / 26
手法 提案手法 NAPLES
提案手法
資産価格 Xt を 0 = s0 < s1 < s2 < · · · < sn という時刻で観測し、
資産価格 Yt を 0 = t0 < t1 < t2 < · · · < tm という時刻で観測する。
このとき観測される資産価値の対数リターンをそれぞれ、
r
(X)
si = log(Xsi /Xsi−1 ), r
(Y)
tj
= log(Ytj /Ytj−1 ),
とおく。ここでその資産のリターンの符号を取ったものを b で定める。
b
(X)
si = sign{log(Xsi /Xsi−1 )}, b
(Y)
tj
= sign{log(Ytj /Ytj−1 )}.
このリターンの符号の累積和を次のように X̂, Ŷ で定める。
X̂t =
n
∑
i=1
1si<tb
(X)
si , Ŷt =
m
∑
j=1
1tj<tb
(Y)
tj
.
最終的に我々が提案する Lead-Lag 推定のための指数 R(t) は
R(t) :=
n−1
∑
i=1
(
b
(X)
si Ŷsi+1 − b
(X)
si Ŷsi
)
1si+1<t −
m−1
∑
j=1
(
b
(Y)
tj
X̂tj+1 − b
(Y)
tj
X̂tj
)
1tj+1<t
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 8 / 26
手法 提案手法 NAPLES
指数の解釈
NAPLES; Negative And Positive Lead-lag EStimator
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 9 / 26
手法 提案手法の解釈
指数 R(t) の解釈
(1) X̂t, Ŷt は時系列 Xt, Yt を単純化したもの。
R(t) は以下の単純な戦略の累積リターンである。
n−1
∑
i=1
(
b
(X)
si Ŷsi+1 − b
(X)
si Ŷsi
)
1si+1<t
X が時刻 si で上昇 ⇒si で Ŷ を買い si+1 で Ŷ を売る。
X が時刻 si で下落 ⇒si で Ŷ を売り si+1 で Ŷ を買う。
(2) R(t) は単純化された時系列の共分散である。実際、
b̂
(Y)
si+1 := (Ŷsi+1 − Ŷsi ), b̂
(X)
tj+1
:= (X̂tj+1 − X̂tj )
と定義すると、R(T) は以下のようになる。
R(T) =
n−1
∑
i=1
b
(X)
si b̂
(Y)
si+1 −
m−1
∑
j=1
b
(Y)
tj
b̂
(X)
tj+1
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 10 / 26
手法 提案手法の数学的性質
主定理
2 つの資産価格 X, Y が上の定理と同じ相関 ρ、先行遅行関係 θ のある
幾何ブラウン運動であるとする。観測時間 si,tj の間隔が常に等間隔 ∆
であると仮定する。このとき R(T) は次のようになる。
E[R(T)] =





l
π (θ) arcsin(ρ|θ|
∆ ) 0 < |θ| < ∆を満たすとき
l
π (θ) arcsin(ρ(2∆−|θ|)
∆ ) ∆ < |θ| < 2∆を満たすとき
0 それ以外.
ただし l は θ > 0 のとき m − 1 で、θ < 0 のとき n − 1 であるような定
数である。
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 11 / 26
手法 提案手法の数学的性質
主定理の図示
∆
−∆ 2∆
−2∆ θ
E[R(T)]
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 12 / 26
手法 提案手法の数学的性質
主定理の図示のシミュレーション結果
Figure: T = 1000 , ∆ = 5 , ρ = 0.9 の場合の理論値 (太線) とシミュレーション結果
(細線)
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 13 / 26
実験
実験設定
相関 ρ・ラグ θ のある幾何ブラウン運動対 (Xt, Yt) を生成し、時刻 si, tj
でサンプリングする。
Xt = x0 exp
(
σ1B
(1)
t
)
, x0 = 100
Yt = y0 exp
(
ρσ2B
(1)
t−ϑ + σ2
(
1 − ρ2
)1/2
Wt−ϑ
)
, y0 = 100
σ1 = σ2 = {0.01, 0.02, · · · , 0.10}, 0 ≤ t ≤ 1000
ti+1 − ti, si+1 − si ∼ N(10, 1) i.i.d でサンプリング
Hoffman-Rosenbaum-Yoshida(HRY),Dobrev-Schaumburg(DS) と提案
手法を比較する
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 14 / 26
実験 同期観測人工データにおける Lead-Lag 推定
実験 1(人工データ同期観測の推定誤差比較)
Table: 同期観測の人工データにおける Lead-Lag 効果推定
Methods ρ = 1.0 ρ = 0.9 ρ = 0.8 ρ = 0.7 ρ = 0.6 ρ = 0.5
HRY
0.99976
±
0.00047
0.75615
±
0.01250
0.74733
±
0.01217
0.73526
±
0.01314
0.72265
±
0.01488
0.71468
±
0.01247
DS
1.00000
±
0.00000
0.98983
±
0.00283
0.97808
±
0.00434
0.962629
±
0.00646
0.945540
±
0.00651
0.929730
±
0.00833
Ours
1.00000
±
0.00000
0.99193
±
0.00263
0.97436
±
0.00451
0.95901
±
0.00551
0.94422
±
0.00725
0.93020
±
0.00736
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 15 / 26
実験 非同期観測人工データの Lead-Lag 効果推定
実験 2(人工データ非同期観測の推定誤差比較)
Table: 非同期観測の人工データにおける Lead-Lag 効果推定
Methods ρ = 1.0 ρ = 0.9 ρ = 0.8 ρ = 0.7 ρ = 0.6 ρ = 0.5
HRY
0.97433
±
0.00420
0.94424
±
0.00645
0.93981
±
0.00699
0.93172
±
0.00690
0.91995
±
0.00830
0.89890
±
0.00943
DS
1.00000
±
0.00000
0.98459
±
0.00410
0.96410
±
0.00538
0.93953
±
0.00731
0.91899
±
0.00777
0.88716
±
0.00880
Ours
1.00000
±
0.00000
1.00000
±
0.00000
1.00000
±
0.00000
0.99962
±
0.00051
0.99901
±
0.00080
0.99465
±
0.00217
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 16 / 26
実験 非同期観測人工データの Lead-Lag 効果推定
実験 3(人工データにおける収束)
2.5 3.0 3.5 4.0 4.5 5.0
Log f Time H riz n l g10T
−0.2
0.0
0.2
0.4
0.6
0.8
1.0
L
g
f
Mean
Abs
lute
Err
r
f
Lead
-Lag
log
10
|
θ
−
̂
θ
|
HRY
DS
Ours
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 17 / 26
実験 非同期観測実データの Lead-Lag 効果推定
実験 4(非同期観測実データの Lead-Lag 効果推定)
実際の USD/JPY 高頻度データに、独立なノイズを加えることによっ
て、X と Y を作る。
統計量 数値 
1 時間リターンの平均  3.27240e-05
1 時間リターンの標準偏差  0.000668831
1 時間リターンの歪度 0.036400602
1 時間リターンの尖度 -0.093903216
タイムスタンプの平均間隔  1318ms
タイムスタンプの最低間隔  47ms
タイムスタンプの最大間隔 42742ms
1 時間あたりのデータ平均数 2948
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 18 / 26
実験 非同期観測実データの Lead-Lag 効果推定
実験 4(非同期観測実データの Lead-Lag 効果推定)
Table: 非同期観測の実データにおける Lead-Lag 効果推定
Methods ρ = 1.0 ρ = 0.9 ρ = 0.8 ρ = 0.7 ρ = 0.6 ρ = 0.5
HRY
0.5317
±
0.0510
0.5580
±
0.0477
0.5627
±
0.0434
0.5438
±
0.0525
0.5546
±
0.0502
0.4078
±
0.0369
提案手法
1.0000
±
0.0000
0.9998
±
0.0014
0.9932
±
0.0082
0.9780
±
0.0131
0.9483
±
0.0186
0.8922
±
0.0288
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 19 / 26
実験 非同期観測実データの Lead-Lag 効果推定
実験 5(実データにおける Lead-Lag 効果の観測)
実験設定
定性的に Lead-Lag 効果が観測されている (GBP/USD, EUR/USD),
(NZD/USD, AUD/USD), (CHF/USD, EUR/USD), (CAD/USD,
AUD/USD)8 個の通貨ペアについて重要な指標発表前後の
Lead-Lag 関係を見る
2016/2/1 から 2019/2/1 の Tick データ
図
横軸:指標発表からの相対時間。指標発表時 0 に点線。
縦軸:各手法 (提案・HRY・DB) により推定された Lead-Lag。大
きければ明確な Lead-Lag 関係がある。0 に点線
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 20 / 26
実験 非同期観測実データの Lead-Lag 効果推定
実験 5(実データにおける Lead-Lag 効果の観測)
— —   
—






OURS
GBP vs EUR
—   
—
—







NZD vs AUD
—   
—
—
—





CHF vs EUR
—   
—
—
—






CAD vs AUD
— —   
—






DB
—   
—
—







—   
—
—
—





—   
—
—
—






— —   
—






HRY
—   
—
—







—   
—
—
—





—   
—
—
—






K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 21 / 26
実験 非同期観測実データの Lead-Lag 効果推定
実験 5 の解釈
解釈
重要な指標発表前後に強い Lead-Lag 関係がある。
定性的考察 (Ito-Sakemoto 2020)
指標発表前にはトレーダーは在庫調整を行い、指標発表通貨ポジシ
ョンのリスクを減らす。
指標発表前にポジションを構築するのはリスクがある。したがって
そのリスクについてのプレミアムが存在し、プレミアムを取りにい
くトレーダーがいる。
指標発表通貨に対して private information を持つトレーダーが先行
して売買を行っている。
提案手法が最も明確に Lead-Lag 関係を捉えられている
提案手法が時変的な Lead-Lag 関係にも対応している。
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 22 / 26
実験 非同期観測実データの Lead-Lag 効果推定
実験 5(発見された Lead-lag に基づくトレード)
実際に 8 通貨ペアの中で最も遅れている物を最も進んでいるものを見
ながらトレードするときの累積リターン(ただしこれはインサンプル)
       
5JNFNJO






-PHDVNVMBUJWFSFUVSOT
$VNVMBUJWFSFUVSOTPGUSBEJOHTUSBUFHJFT
HFOFSBUFECZUIFEFUFDUFEMFBEMBHT
)3:
%#
0VST
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 23 / 26
実験 非同期観測実データの Lead-Lag 効果推定
まとめ
本研究の貢献
Lead-Lag 関係の高速かつ正確な推定手法を提案した
その理論的性質と理論的考察を行った
シミュレーションデータ及び実データにおいてその有効性を示し、
また実データにおいて定性的研究と一致する結果を示した。
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 24 / 26
実験 非同期観測実データの Lead-Lag 効果推定
Appendix: 主定理の一般化 (指数 R(t) の性質)
Theorem
X, s, Y, t, b を今までで定めたとおりとし、ti := min{tj | si ≤ tj},
ti := max{tj | si  tj}, sj := min{si | tj ≤ si}, sj := max{si | si  tj} とす
る。このとき si, tj について以下が成り立つと仮定する
任意の i について si  tj  si+1 を満たすような tj は 1 個以下。
任意の j について tj  si  tj+1 を満たすような si は 1 個以下。
このとき、R(T) の期待値は次のスライドのようになる。
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 25 / 26
実験 非同期観測実データの Lead-Lag 効果推定
Appendix: 主定理 (指数 R(t) の性質)(continued)
E[R(T)] =
1
π
n−1
∑
i=1
1si−1ti+θsi
arcsin(
ρ(si − ti − θ)
√
(ti+1 − ti)(si − si−1)
)
+
1
π
m−1
∑
j=1
1sjtj+θsj+1
arcsin(
ρ(tj + θ − sj)
√
(sj+1 − sj)(tj − tj−1)
)
−
1
π
n−1
∑
i=1
1si−1ti+1+θsi
arcsin(
ρ(ti+1 + θ − si−1)
√
(ti+1 − ti)(si − si−1)
)
+
1
π
m−1
∑
j=1
1sjtj−1+θsj+1
arcsin(
ρ(sj+1 − tj−1 − θ)
√
(sj+1 − sj)(tj − tj−1)
).
K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 26 / 26

Weitere ähnliche Inhalte

Was ist angesagt?

Sigfin Neural Fractional SDE NET
Sigfin Neural Fractional SDE NETSigfin Neural Fractional SDE NET
Sigfin Neural Fractional SDE NETKei Nakagawa
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured PredictionDeep Learning JP
 
ファクター投資と機械学習
ファクター投資と機械学習ファクター投資と機械学習
ファクター投資と機械学習Kei Nakagawa
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement LearningPreferred Networks
 
最適化超入門
最適化超入門最適化超入門
最適化超入門Takami Sato
 
因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析Kei Nakagawa
 
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会正志 坪坂
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)Takao Yamanaka
 
[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...
[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...
[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...Deep Learning JP
 
[DL輪読会]Hindsight Experience Replay
[DL輪読会]Hindsight Experience Replay[DL輪読会]Hindsight Experience Replay
[DL輪読会]Hindsight Experience ReplayDeep Learning JP
 
20191006 bayesian dl_1_pub
20191006 bayesian dl_1_pub20191006 bayesian dl_1_pub
20191006 bayesian dl_1_pubYoichi Tokita
 
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめたKatsuya Ito
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデルMasahiro Suzuki
 
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)Teppei Kurita
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向ohken
 
Risk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matricesRisk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matricesKei Nakagawa
 
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...Kei Nakagawa
 
強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験克海 納谷
 

Was ist angesagt? (20)

Sigfin Neural Fractional SDE NET
Sigfin Neural Fractional SDE NETSigfin Neural Fractional SDE NET
Sigfin Neural Fractional SDE NET
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
 
ファクター投資と機械学習
ファクター投資と機械学習ファクター投資と機械学習
ファクター投資と機械学習
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
 
最適化超入門
最適化超入門最適化超入門
最適化超入門
 
因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析
 
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
 
[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...
[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...
[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...
 
[DL輪読会]Hindsight Experience Replay
[DL輪読会]Hindsight Experience Replay[DL輪読会]Hindsight Experience Replay
[DL輪読会]Hindsight Experience Replay
 
20191006 bayesian dl_1_pub
20191006 bayesian dl_1_pub20191006 bayesian dl_1_pub
20191006 bayesian dl_1_pub
 
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
 
Risk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matricesRisk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matrices
 
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
 
強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験
 

Ähnlich wie 非同期時系列のLead-lag効果推定のための新しい推定量

ベイズ統計によるデータ解析
ベイズ統計によるデータ解析ベイズ統計によるデータ解析
ベイズ統計によるデータ解析Kunihiro Hisatsune
 
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Taiji Suzuki
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)Kota Mori
 
64ビット高性能線形擬似乱数発生法の開発
64ビット高性能線形擬似乱数発生法の開発64ビット高性能線形擬似乱数発生法の開発
64ビット高性能線形擬似乱数発生法の開発Shin Harase
 
Data assim r
Data assim rData assim r
Data assim rXiangze
 
非分離冗長重複変換の事例学習設計における効果的辞書更新
非分離冗長重複変換の事例学習設計における効果的辞書更新非分離冗長重複変換の事例学習設計における効果的辞書更新
非分離冗長重複変換の事例学習設計における効果的辞書更新Shogo Muramatsu
 
Stochastic Variational Inference
Stochastic Variational InferenceStochastic Variational Inference
Stochastic Variational InferenceKaede Hayashi
 
Grcosmo 44 slide
Grcosmo 44 slideGrcosmo 44 slide
Grcosmo 44 slideKENTAROHARA
 
Hayashi tutorial ne2017
Hayashi tutorial ne2017Hayashi tutorial ne2017
Hayashi tutorial ne2017yukisachi
 
卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-Tomoshige Nakamura
 
Granger因果による 時系列データの因果推定(因果フェス2015)
Granger因果による時系列データの因果推定(因果フェス2015)Granger因果による時系列データの因果推定(因果フェス2015)
Granger因果による 時系列データの因果推定(因果フェス2015)Takashi J OZAKI
 
Rで学ぶ観察データでの因果推定
Rで学ぶ観察データでの因果推定Rで学ぶ観察データでの因果推定
Rで学ぶ観察データでの因果推定Hiroki Matsui
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)Morpho, Inc.
 

Ähnlich wie 非同期時系列のLead-lag効果推定のための新しい推定量 (20)

ベイズ統計によるデータ解析
ベイズ統計によるデータ解析ベイズ統計によるデータ解析
ベイズ統計によるデータ解析
 
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Sparse estimation tutorial 2014
Sparse estimation tutorial 2014
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
 
Rで学ぶロバスト推定
Rで学ぶロバスト推定Rで学ぶロバスト推定
Rで学ぶロバスト推定
 
64ビット高性能線形擬似乱数発生法の開発
64ビット高性能線形擬似乱数発生法の開発64ビット高性能線形擬似乱数発生法の開発
64ビット高性能線形擬似乱数発生法の開発
 
Data assim r
Data assim rData assim r
Data assim r
 
非分離冗長重複変換の事例学習設計における効果的辞書更新
非分離冗長重複変換の事例学習設計における効果的辞書更新非分離冗長重複変換の事例学習設計における効果的辞書更新
非分離冗長重複変換の事例学習設計における効果的辞書更新
 
Information extraction 1
Information extraction 1Information extraction 1
Information extraction 1
 
Stochastic Variational Inference
Stochastic Variational InferenceStochastic Variational Inference
Stochastic Variational Inference
 
4thNLPDL
4thNLPDL4thNLPDL
4thNLPDL
 
Grcosmo 44 slide
Grcosmo 44 slideGrcosmo 44 slide
Grcosmo 44 slide
 
Hayashi tutorial ne2017
Hayashi tutorial ne2017Hayashi tutorial ne2017
Hayashi tutorial ne2017
 
卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-
 
演習発表 Sari v.1.2
演習発表 Sari v.1.2演習発表 Sari v.1.2
演習発表 Sari v.1.2
 
Granger因果による 時系列データの因果推定(因果フェス2015)
Granger因果による時系列データの因果推定(因果フェス2015)Granger因果による時系列データの因果推定(因果フェス2015)
Granger因果による 時系列データの因果推定(因果フェス2015)
 
JSIAM_2019_9_4
JSIAM_2019_9_4JSIAM_2019_9_4
JSIAM_2019_9_4
 
Rで学ぶ観察データでの因果推定
Rで学ぶ観察データでの因果推定Rで学ぶ観察データでの因果推定
Rで学ぶ観察データでの因果推定
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
 
CMSI計算科学技術特論A(14) 量子化学計算の大規模化1
CMSI計算科学技術特論A(14) 量子化学計算の大規模化1CMSI計算科学技術特論A(14) 量子化学計算の大規模化1
CMSI計算科学技術特論A(14) 量子化学計算の大規模化1
 
Sparse models
Sparse modelsSparse models
Sparse models
 

Mehr von Katsuya Ito

ICML2021の連合学習の論文
ICML2021の連合学習の論文ICML2021の連合学習の論文
ICML2021の連合学習の論文Katsuya Ito
 
西山計量経済学第8章 制限従属変数モデル
西山計量経済学第8章 制限従属変数モデル西山計量経済学第8章 制限従属変数モデル
西山計量経済学第8章 制限従属変数モデルKatsuya Ito
 
表明保証と補償責任
表明保証と補償責任表明保証と補償責任
表明保証と補償責任Katsuya Ito
 
Gali3章Monetary Policy, Inflation, and the Business Cycle~the basic new keynes...
Gali3章Monetary Policy, Inflation, and the Business Cycle~the basic new keynes...Gali3章Monetary Policy, Inflation, and the Business Cycle~the basic new keynes...
Gali3章Monetary Policy, Inflation, and the Business Cycle~the basic new keynes...Katsuya Ito
 
新問題研究 要件事実
新問題研究 要件事実新問題研究 要件事実
新問題研究 要件事実Katsuya Ito
 
Convex Analysis and Duality (based on "Functional Analysis and Optimization" ...
Convex Analysis and Duality (based on "Functional Analysis and Optimization" ...Convex Analysis and Duality (based on "Functional Analysis and Optimization" ...
Convex Analysis and Duality (based on "Functional Analysis and Optimization" ...Katsuya Ito
 
量子プログラミング入門
量子プログラミング入門量子プログラミング入門
量子プログラミング入門Katsuya Ito
 
異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRMLKatsuya Ito
 
ICLR 2018 Best papers 3本を紹介
ICLR 2018 Best papers 3本を紹介ICLR 2018 Best papers 3本を紹介
ICLR 2018 Best papers 3本を紹介Katsuya Ito
 
計算数学I TA小話①(TeXについて)
計算数学I TA小話①(TeXについて)計算数学I TA小話①(TeXについて)
計算数学I TA小話①(TeXについて)Katsuya Ito
 
Black-Scholesの面白さ
Black-Scholesの面白さ Black-Scholesの面白さ
Black-Scholesの面白さ Katsuya Ito
 
深層ニューラルネットワークの積分表現(Deepを定式化する数学)
深層ニューラルネットワークの積分表現(Deepを定式化する数学)深層ニューラルネットワークの積分表現(Deepを定式化する数学)
深層ニューラルネットワークの積分表現(Deepを定式化する数学)Katsuya Ito
 
Goodfellow先生おすすめのGAN論文6つを紹介
Goodfellow先生おすすめのGAN論文6つを紹介Goodfellow先生おすすめのGAN論文6つを紹介
Goodfellow先生おすすめのGAN論文6つを紹介Katsuya Ito
 
とぽろじー入門(画像なし版)
とぽろじー入門(画像なし版)とぽろじー入門(画像なし版)
とぽろじー入門(画像なし版)Katsuya Ito
 

Mehr von Katsuya Ito (14)

ICML2021の連合学習の論文
ICML2021の連合学習の論文ICML2021の連合学習の論文
ICML2021の連合学習の論文
 
西山計量経済学第8章 制限従属変数モデル
西山計量経済学第8章 制限従属変数モデル西山計量経済学第8章 制限従属変数モデル
西山計量経済学第8章 制限従属変数モデル
 
表明保証と補償責任
表明保証と補償責任表明保証と補償責任
表明保証と補償責任
 
Gali3章Monetary Policy, Inflation, and the Business Cycle~the basic new keynes...
Gali3章Monetary Policy, Inflation, and the Business Cycle~the basic new keynes...Gali3章Monetary Policy, Inflation, and the Business Cycle~the basic new keynes...
Gali3章Monetary Policy, Inflation, and the Business Cycle~the basic new keynes...
 
新問題研究 要件事実
新問題研究 要件事実新問題研究 要件事実
新問題研究 要件事実
 
Convex Analysis and Duality (based on "Functional Analysis and Optimization" ...
Convex Analysis and Duality (based on "Functional Analysis and Optimization" ...Convex Analysis and Duality (based on "Functional Analysis and Optimization" ...
Convex Analysis and Duality (based on "Functional Analysis and Optimization" ...
 
量子プログラミング入門
量子プログラミング入門量子プログラミング入門
量子プログラミング入門
 
異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML
 
ICLR 2018 Best papers 3本を紹介
ICLR 2018 Best papers 3本を紹介ICLR 2018 Best papers 3本を紹介
ICLR 2018 Best papers 3本を紹介
 
計算数学I TA小話①(TeXについて)
計算数学I TA小話①(TeXについて)計算数学I TA小話①(TeXについて)
計算数学I TA小話①(TeXについて)
 
Black-Scholesの面白さ
Black-Scholesの面白さ Black-Scholesの面白さ
Black-Scholesの面白さ
 
深層ニューラルネットワークの積分表現(Deepを定式化する数学)
深層ニューラルネットワークの積分表現(Deepを定式化する数学)深層ニューラルネットワークの積分表現(Deepを定式化する数学)
深層ニューラルネットワークの積分表現(Deepを定式化する数学)
 
Goodfellow先生おすすめのGAN論文6つを紹介
Goodfellow先生おすすめのGAN論文6つを紹介Goodfellow先生おすすめのGAN論文6つを紹介
Goodfellow先生おすすめのGAN論文6つを紹介
 
とぽろじー入門(画像なし版)
とぽろじー入門(画像なし版)とぽろじー入門(画像なし版)
とぽろじー入門(画像なし版)
 

非同期時系列のLead-lag効果推定のための新しい推定量

  • 1. NAPLES; 非同期時系列の Lead-lag 効果推定のため の新しい推定量 伊藤克哉1 中川慧2 1Preferred Newtworks 2 野村アセットマネジメント 第 26 回人工知能学会金融情報学研究会(SIG-FIN) 2021 年 3 月 5 日 K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 1 / 26
  • 2. 目次 1 導入 高頻度取引の説明・Lead-Lag 効果の説明 Lead-Lag 効果推定における課題の説明 2 関連研究 Hoffman-Rosenbaum-Yoshida Dobrev-Schaumburg Dynamic Time Warping 3 手法 提案手法 NAPLES 提案手法の解釈 提案手法の数学的性質 4 実験 同期観測人工データにおける Lead-Lag 推定 非同期観測人工データの Lead-Lag 効果推定 非同期観測実データの Lead-Lag 効果推定 K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 2 / 26
  • 4. 導入 高頻度取引の説明・Lead-Lag 効果の説明 研究対象 高頻度取引 金融資産をアルゴリズムがミリ秒単位またはそれ以下で取引。 Lead-Lag 効果 2 つの資産価格を考えたときに、 一方の値動きが他方の値動きに先行または遅行すること。 Lead-Lag 効果の推定 Xt,Yt という時系列を観測したときに、 ラグ θ̂ = argmaxθCorr(Xt, Yt+θ) を計算すること。 例: 先物と現物の Lead-Lag 効果 同業種内の株価の Lead-Lag 効果 異なる取引所間の Lead-Lag 効果 外国為替における異なる通貨ペア間の Lead-Lag 効果 K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 4 / 26
  • 5. 導入 Lead-Lag 効果推定における課題の説明 研究課題 Lead-Lag 効果の推定における課題 1 タイムスタンプの非同期性 Tick データでは注文があるごとに記録される。 → タイムスタンプが揃わず、相関係数等の計算が困難。 2 データの膨大性 計算機・通信の高速化により蓄積するデータ量は膨大に。 → 計算量が少ない Lead-Lag 推定アルゴリズムが必要。 3 ラグの時間変化 ラグは時間変化している [3]。 → ラグの時間変化にも対応する Lead-Lag 推定アルゴリズムが必要。 K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 5 / 26
  • 6. 関連研究 Dynamic Time Warping 関連研究 (Lead-Lag 効果の推定) Lead-Lag 効果の推定における関連研究 資産 A, B の価格 Xt, Yt を時刻 {si}N i=1, {tj}M j=1 ⊂ [0, T] において観測。 1 Hoffman-Rosenbaum-Yoshida(2013) 非同期観測の時系列に対して共分散推定量を考案。それを最大化。 計算量のオーダーは O(|Θ|NM)∗ argmaxθ∈Θ N−1 ∑ i=1 M−1 ∑ j=i (Xsi+1 − Xsi ) ( Ytj+1 − Ytj ) 1{]tj−1+θ,tj+θ]∩]si−1,si]̸=∅} 2 Dobrev-Schaumburg(2017) 取引がある・ないの {0, 1} の時系列に対して内積を最大化。 計算量のオーダーは O(|Θ|T) argmaxθ∈Θ ∑ T−|θ| i=|θ| 1{A active at i + θ} · 1{B active at i} ∑ T−|θ| i=|θ| 1{A active at i + θ} ∧ ∑ T−|θ| i=|θ| 1{B active at i} . ∗タイムスタンプがソートされているときは O(|Θ| max{N, M}) にもできる K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 6 / 26
  • 7. 関連研究 Dynamic Time Warping 関連研究 (MTDW) 3 Ito-Sakemoto(2020) DTW の多次元バージョンを計算して直接推定 ni と mi は対応している時刻とみなせるので mi − ni を計算するこ とによって、ラグの候補 Θ を用いずに Lead-Lag 効果が直接推定が 可能。 MDTW ( {Xi}N i=1 , {Yj}M j=1 ) := min nl,ml L ∑ l=1 d           Xnl Xnl+1 . . . Xnl+w      ,      Yml Yml+1 . . . Yml+w           s.t. n1 < · · · < nL, m1 < · · · < mL, |ni+1 − ni| + |mi+1 − mi| ≤ 1 K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 7 / 26
  • 8. 手法 提案手法 NAPLES 提案手法 資産価格 Xt を 0 = s0 < s1 < s2 < · · · < sn という時刻で観測し、 資産価格 Yt を 0 = t0 < t1 < t2 < · · · < tm という時刻で観測する。 このとき観測される資産価値の対数リターンをそれぞれ、 r (X) si = log(Xsi /Xsi−1 ), r (Y) tj = log(Ytj /Ytj−1 ), とおく。ここでその資産のリターンの符号を取ったものを b で定める。 b (X) si = sign{log(Xsi /Xsi−1 )}, b (Y) tj = sign{log(Ytj /Ytj−1 )}. このリターンの符号の累積和を次のように X̂, Ŷ で定める。 X̂t = n ∑ i=1 1si<tb (X) si , Ŷt = m ∑ j=1 1tj<tb (Y) tj . 最終的に我々が提案する Lead-Lag 推定のための指数 R(t) は R(t) := n−1 ∑ i=1 ( b (X) si Ŷsi+1 − b (X) si Ŷsi ) 1si+1<t − m−1 ∑ j=1 ( b (Y) tj X̂tj+1 − b (Y) tj X̂tj ) 1tj+1<t K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 8 / 26
  • 9. 手法 提案手法 NAPLES 指数の解釈 NAPLES; Negative And Positive Lead-lag EStimator K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 9 / 26
  • 10. 手法 提案手法の解釈 指数 R(t) の解釈 (1) X̂t, Ŷt は時系列 Xt, Yt を単純化したもの。 R(t) は以下の単純な戦略の累積リターンである。 n−1 ∑ i=1 ( b (X) si Ŷsi+1 − b (X) si Ŷsi ) 1si+1<t X が時刻 si で上昇 ⇒si で Ŷ を買い si+1 で Ŷ を売る。 X が時刻 si で下落 ⇒si で Ŷ を売り si+1 で Ŷ を買う。 (2) R(t) は単純化された時系列の共分散である。実際、 b̂ (Y) si+1 := (Ŷsi+1 − Ŷsi ), b̂ (X) tj+1 := (X̂tj+1 − X̂tj ) と定義すると、R(T) は以下のようになる。 R(T) = n−1 ∑ i=1 b (X) si b̂ (Y) si+1 − m−1 ∑ j=1 b (Y) tj b̂ (X) tj+1 K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 10 / 26
  • 11. 手法 提案手法の数学的性質 主定理 2 つの資産価格 X, Y が上の定理と同じ相関 ρ、先行遅行関係 θ のある 幾何ブラウン運動であるとする。観測時間 si,tj の間隔が常に等間隔 ∆ であると仮定する。このとき R(T) は次のようになる。 E[R(T)] =      l π (θ) arcsin(ρ|θ| ∆ ) 0 < |θ| < ∆を満たすとき l π (θ) arcsin(ρ(2∆−|θ|) ∆ ) ∆ < |θ| < 2∆を満たすとき 0 それ以外. ただし l は θ > 0 のとき m − 1 で、θ < 0 のとき n − 1 であるような定 数である。 K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 11 / 26
  • 12. 手法 提案手法の数学的性質 主定理の図示 ∆ −∆ 2∆ −2∆ θ E[R(T)] K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 12 / 26
  • 13. 手法 提案手法の数学的性質 主定理の図示のシミュレーション結果 Figure: T = 1000 , ∆ = 5 , ρ = 0.9 の場合の理論値 (太線) とシミュレーション結果 (細線) K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 13 / 26
  • 14. 実験 実験設定 相関 ρ・ラグ θ のある幾何ブラウン運動対 (Xt, Yt) を生成し、時刻 si, tj でサンプリングする。 Xt = x0 exp ( σ1B (1) t ) , x0 = 100 Yt = y0 exp ( ρσ2B (1) t−ϑ + σ2 ( 1 − ρ2 )1/2 Wt−ϑ ) , y0 = 100 σ1 = σ2 = {0.01, 0.02, · · · , 0.10}, 0 ≤ t ≤ 1000 ti+1 − ti, si+1 − si ∼ N(10, 1) i.i.d でサンプリング Hoffman-Rosenbaum-Yoshida(HRY),Dobrev-Schaumburg(DS) と提案 手法を比較する K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 14 / 26
  • 15. 実験 同期観測人工データにおける Lead-Lag 推定 実験 1(人工データ同期観測の推定誤差比較) Table: 同期観測の人工データにおける Lead-Lag 効果推定 Methods ρ = 1.0 ρ = 0.9 ρ = 0.8 ρ = 0.7 ρ = 0.6 ρ = 0.5 HRY 0.99976 ± 0.00047 0.75615 ± 0.01250 0.74733 ± 0.01217 0.73526 ± 0.01314 0.72265 ± 0.01488 0.71468 ± 0.01247 DS 1.00000 ± 0.00000 0.98983 ± 0.00283 0.97808 ± 0.00434 0.962629 ± 0.00646 0.945540 ± 0.00651 0.929730 ± 0.00833 Ours 1.00000 ± 0.00000 0.99193 ± 0.00263 0.97436 ± 0.00451 0.95901 ± 0.00551 0.94422 ± 0.00725 0.93020 ± 0.00736 K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 15 / 26
  • 16. 実験 非同期観測人工データの Lead-Lag 効果推定 実験 2(人工データ非同期観測の推定誤差比較) Table: 非同期観測の人工データにおける Lead-Lag 効果推定 Methods ρ = 1.0 ρ = 0.9 ρ = 0.8 ρ = 0.7 ρ = 0.6 ρ = 0.5 HRY 0.97433 ± 0.00420 0.94424 ± 0.00645 0.93981 ± 0.00699 0.93172 ± 0.00690 0.91995 ± 0.00830 0.89890 ± 0.00943 DS 1.00000 ± 0.00000 0.98459 ± 0.00410 0.96410 ± 0.00538 0.93953 ± 0.00731 0.91899 ± 0.00777 0.88716 ± 0.00880 Ours 1.00000 ± 0.00000 1.00000 ± 0.00000 1.00000 ± 0.00000 0.99962 ± 0.00051 0.99901 ± 0.00080 0.99465 ± 0.00217 K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 16 / 26
  • 17. 実験 非同期観測人工データの Lead-Lag 効果推定 実験 3(人工データにおける収束) 2.5 3.0 3.5 4.0 4.5 5.0 Log f Time H riz n l g10T −0.2 0.0 0.2 0.4 0.6 0.8 1.0 L g f Mean Abs lute Err r f Lead -Lag log 10 | θ − ̂ θ | HRY DS Ours K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 17 / 26
  • 18. 実験 非同期観測実データの Lead-Lag 効果推定 実験 4(非同期観測実データの Lead-Lag 効果推定) 実際の USD/JPY 高頻度データに、独立なノイズを加えることによっ て、X と Y を作る。 統計量 数値  1 時間リターンの平均  3.27240e-05 1 時間リターンの標準偏差  0.000668831 1 時間リターンの歪度 0.036400602 1 時間リターンの尖度 -0.093903216 タイムスタンプの平均間隔  1318ms タイムスタンプの最低間隔  47ms タイムスタンプの最大間隔 42742ms 1 時間あたりのデータ平均数 2948 K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 18 / 26
  • 19. 実験 非同期観測実データの Lead-Lag 効果推定 実験 4(非同期観測実データの Lead-Lag 効果推定) Table: 非同期観測の実データにおける Lead-Lag 効果推定 Methods ρ = 1.0 ρ = 0.9 ρ = 0.8 ρ = 0.7 ρ = 0.6 ρ = 0.5 HRY 0.5317 ± 0.0510 0.5580 ± 0.0477 0.5627 ± 0.0434 0.5438 ± 0.0525 0.5546 ± 0.0502 0.4078 ± 0.0369 提案手法 1.0000 ± 0.0000 0.9998 ± 0.0014 0.9932 ± 0.0082 0.9780 ± 0.0131 0.9483 ± 0.0186 0.8922 ± 0.0288 K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 19 / 26
  • 20. 実験 非同期観測実データの Lead-Lag 効果推定 実験 5(実データにおける Lead-Lag 効果の観測) 実験設定 定性的に Lead-Lag 効果が観測されている (GBP/USD, EUR/USD), (NZD/USD, AUD/USD), (CHF/USD, EUR/USD), (CAD/USD, AUD/USD)8 個の通貨ペアについて重要な指標発表前後の Lead-Lag 関係を見る 2016/2/1 から 2019/2/1 の Tick データ 図 横軸:指標発表からの相対時間。指標発表時 0 に点線。 縦軸:各手法 (提案・HRY・DB) により推定された Lead-Lag。大 きければ明確な Lead-Lag 関係がある。0 に点線 K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 20 / 26
  • 21. 実験 非同期観測実データの Lead-Lag 効果推定 実験 5(実データにおける Lead-Lag 効果の観測) — — — OURS GBP vs EUR — — — NZD vs AUD — — — — CHF vs EUR — — — — CAD vs AUD — — — DB — — — — — — — — — — — — — — HRY — — — — — — — — — — — K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 21 / 26
  • 22. 実験 非同期観測実データの Lead-Lag 効果推定 実験 5 の解釈 解釈 重要な指標発表前後に強い Lead-Lag 関係がある。 定性的考察 (Ito-Sakemoto 2020) 指標発表前にはトレーダーは在庫調整を行い、指標発表通貨ポジシ ョンのリスクを減らす。 指標発表前にポジションを構築するのはリスクがある。したがって そのリスクについてのプレミアムが存在し、プレミアムを取りにい くトレーダーがいる。 指標発表通貨に対して private information を持つトレーダーが先行 して売買を行っている。 提案手法が最も明確に Lead-Lag 関係を捉えられている 提案手法が時変的な Lead-Lag 関係にも対応している。 K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 22 / 26
  • 23. 実験 非同期観測実データの Lead-Lag 効果推定 実験 5(発見された Lead-lag に基づくトレード) 実際に 8 通貨ペアの中で最も遅れている物を最も進んでいるものを見 ながらトレードするときの累積リターン(ただしこれはインサンプル) 5JNFNJO -PHDVNVMBUJWFSFUVSOT $VNVMBUJWFSFUVSOTPGUSBEJOHTUSBUFHJFT HFOFSBUFECZUIFEFUFDUFEMFBEMBHT )3: %# 0VST K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 23 / 26
  • 24. 実験 非同期観測実データの Lead-Lag 効果推定 まとめ 本研究の貢献 Lead-Lag 関係の高速かつ正確な推定手法を提案した その理論的性質と理論的考察を行った シミュレーションデータ及び実データにおいてその有効性を示し、 また実データにおいて定性的研究と一致する結果を示した。 K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 24 / 26
  • 25. 実験 非同期観測実データの Lead-Lag 効果推定 Appendix: 主定理の一般化 (指数 R(t) の性質) Theorem X, s, Y, t, b を今までで定めたとおりとし、ti := min{tj | si ≤ tj}, ti := max{tj | si tj}, sj := min{si | tj ≤ si}, sj := max{si | si tj} とす る。このとき si, tj について以下が成り立つと仮定する 任意の i について si tj si+1 を満たすような tj は 1 個以下。 任意の j について tj si tj+1 を満たすような si は 1 個以下。 このとき、R(T) の期待値は次のスライドのようになる。 K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 25 / 26
  • 26. 実験 非同期観測実データの Lead-Lag 効果推定 Appendix: 主定理 (指数 R(t) の性質)(continued) E[R(T)] = 1 π n−1 ∑ i=1 1si−1ti+θsi arcsin( ρ(si − ti − θ) √ (ti+1 − ti)(si − si−1) ) + 1 π m−1 ∑ j=1 1sjtj+θsj+1 arcsin( ρ(tj + θ − sj) √ (sj+1 − sj)(tj − tj−1) ) − 1 π n−1 ∑ i=1 1si−1ti+1+θsi arcsin( ρ(ti+1 + θ − si−1) √ (ti+1 − ti)(si − si−1) ) + 1 π m−1 ∑ j=1 1sjtj−1+θsj+1 arcsin( ρ(sj+1 − tj−1 − θ) √ (sj+1 − sj)(tj − tj−1) ). K.Ito K.Nakagawa (PFN NAM) NAPLES SIGFIN 2021/3/5 26 / 26