15. NNP研究の流れ (2018年まで)
chem/phys field
NNP Tutorial review
Constructing high-dimensional neural network potentials: A tutorial review
ANI-1
ANI-1: an extensible neural network potential with
DFT accuracy at force field computational cost
ANI-1 Dataset
A data set of 20 million calculated off-equilibrium
conformations for organic molecules
ANI-1x
Less is more: sampling chemical space with active
learning
ANI-1ccx
Outsmarting Quantum Chemistry Through
Transfer Learning
TensorMol 0.1
The TensorMol-0.1 Model Chemistry: a Neural
Network Augmented with Long-Range Physics
MetaDynamics for NNMC
Metadynamics for Training Neural Network
Model Chemistries: a Competitive Assessment
SchNet
SchNet: A continuous-filter
convolutional neural network for
modeling quantum interactions
DTNN
Quantum-Chemical Insights from Deep
Tensor Neural Networks
2017
2015
2018
computer science field
15
16. NNP研究の流れ (2018年まで)
chem/phys field
NNP Tutorial review
Constructing high-dimensional neural network potentials: A tutorial review
ANI-1
ANI-1: an extensible neural network potential with
DFT accuracy at force field computational cost
ANI-1 Dataset
A data set of 20 million calculated off-equilibrium
conformations for organic molecules
ANI-1x
Less is more: sampling chemical space with active
learning
ANI-1ccx
Outsmarting Quantum Chemistry Through
Transfer Learning
TensorMol 0.1
The TensorMol-0.1 Model Chemistry: a Neural
Network Augmented with Long-Range Physics
MetaDynamics for NNMC
Metadynamics for Training Neural Network
Model Chemistries: a Competitive Assessment
SchNet
SchNet: A continuous-filter
convolutional neural network for
modeling quantum interactions
DTNN
Quantum-Chemical Insights from Deep
Tensor Neural Networks
2017
2015
2018
computer science field
著者:Behler
最新研究はこの理論をもとに構築されている
16
20. NNP研究の流れ (2018年まで)
chem/phys field
NNP Tutorial review
Constructing high-dimensional neural network potentials: A tutorial review
ANI-1
ANI-1: an extensible neural network potential with
DFT accuracy at force field computational cost
ANI-1 Dataset
A data set of 20 million calculated off-equilibrium
conformations for organic molecules
ANI-1x
Less is more: sampling chemical space with active
learning
ANI-1ccx
Outsmarting Quantum Chemistry Through
Transfer Learning
TensorMol 0.1
The TensorMol-0.1 Model Chemistry: a Neural
Network Augmented with Long-Range Physics
MetaDynamics for NNMC
Metadynamics for Training Neural Network
Model Chemistries: a Competitive Assessment
SchNet
SchNet: A continuous-filter
convolutional neural network for
modeling quantum interactions
DTNN
Quantum-Chemical Insights from Deep
Tensor Neural Networks
2017
2015
2018
computer science field
著者:Justin S. Smith, Olexandr Isayev
Univ of Florida, North Carolina などUSAの機関
ANI-1xからLos Alamos Lab が入ってきて
プロジェクトが大きくなっている模様
実装コードが公開されている (MIT license)
ー https://github.com/isayev/ASE_ANI
ー https://github.com/aiqm/torchani (pytorch base)
20
23. ANI-1 Dataset:データ取得方法
“ANI-1, A data set of 20 million calculated off-equilibrium conformations for organic molecules”
https://www.nature.com/articles/sdata2017193
• GDB-11データベース(最大11個のC, N, O, Fが含まれる分子を列挙)
のSubsetを使用
– C, N, Oのみに制限
– Heavy Atom は最大8個
• Normal Mode Sampling (NMS)で
一つの分子から多数の座標
conformationを生成
rdkitの
MMFF94
Gaussian09の
default method
23
24. ANI-1 Dataset:データ取得結果
“ANI-1, A data set of 20 million calculated off-equilibrium conformations for organic molecules”
https://www.nature.com/articles/sdata2017193
• 計算方法:
– ωB97x density functional
– 6–31 G(d) basis set
– Gaussian 09 使用
• 取得されたデータ数
– 2200万データ!!
– 公開されてます
https://doi.org/10.6084/m9.figshare.c.3846712
24
25. ANI-1:Network構成
“ANI-1: an extensible neural network potential with DFT accuracy at force field computational cost”
https://pubs.rsc.org/en/content/articlelanding/2017/sc/c6sc05720a#!divAbstract
• Neural Network自体は既存研究と同じ
– AtomごとにNNPを構成
– 原子種ごとに違うNNを用いる
• H, C, N, O
– Total EnergyはAtomic Energyの和
• ANI-1のMLP構成:
– 768, 128, 128, 64, 1 dim layer
– Gaussian activation function
25
26. ANI-1:既存研究との差異・工夫した点
“ANI-1: an extensible neural network potential with DFT accuracy at force field computational cost”
https://pubs.rsc.org/en/content/articlelanding/2017/sc/c6sc05720a#!divAbstract
• AEV (Atomic Environment Vector) の計算方法
– 原子種 (H, C, O, N)ごとに違うAEVを計算
→ 原子種の違いが区別できる
• Radial:N種類
• Angular:N * (N+1)/2 種類
– ANI-1では (N=4)
• Radial: 4 * 32通りのRs
• Angular: 10 * 8通りのRs * 8 通りの θs
→ 合計 768 次元のAEV、 G が構成される。
26
27. ANI-1:結果
“ANI-1: an extensible neural network potential with DFT accuracy at force field computational cost”
https://pubs.rsc.org/en/content/articlelanding/2017/sc/c6sc05720a#!divAbstract
• DFTB, PM9, AM1といった
計算手法と比べてDFTとの
結果一致度が高い
• 訓練データに含まれていない
大きさの原子に対してもきちんと
予測できている
(ANI-1 Dataset は 重原子8個まで)
GDB-11から10個の重原子を持つ分子を134個サンプル
それぞれの複数conformation間での ΔE の予測を比較
27
28. ANI-1:結果
“ANI-1: an extensible neural network potential with DFT accuracy at force field computational cost”
https://pubs.rsc.org/en/content/articlelanding/2017/sc/c6sc05720a#!divAbstract
• Conformationを変えた場合の
エネルギー変化の予測
– ANI-1は他の手法と比べても
DFTに近い予測ができている。
one-dimensional potential surface scan
28
29. ANI-1 & ANI-1 Dataset:まとめ
“ANI-1: an extensible neural network potential with DFT accuracy at force field computational cost”
https://pubs.rsc.org/en/content/articlelanding/2017/sc/c6sc05720a#!divAbstract
• H, C, N, O からなる小分子に関しては、
様々な分子・構造に対してDFTに似たエネルギーが
計算できるNNPが構成できた。
– 2000万という大量の計算を行いデータセットを作成
課題
• ほかの原子 (FやSなど) を追加すること
– 原子ごとに別のNNを訓練する必要がある
– 入力次元が N^2 に比例して増える。
– 取得すべきデータの組み合わせもそれに比例するはず
29
30. GNNとは
• Graph Neural Network:グラフを入力でき、データの “つながり” の情報を学習
• グラフとは:頂点 v と辺 e で構成
– Social Network(SNSの結びつきグラフ)、Citation Network(論文の引用を示すグラフ)
– 商品Network(同時購入された商品を結ぶグラフ)
– Protein-Protein Association Network
– 有機分子 etc…
30
𝒗𝟎
𝒗𝟏
𝒗𝟐
𝒗𝟒
𝒗𝟑
𝑒&' 𝑒'(
𝑒()
𝑒*)
𝑒(*
応用例が広い!
33. C
N
O
1.0 0.0 0.0 6.0 1.0
atom type
0.0 1.0 0.0 7.0 1.0
0.0 0.0 1.0 8.0 1.0
charge
chirality
原子ごとに特徴量作成
Molecular Graph Convolutions: Moving Beyond Fingerprints
Steven Kearnes, Kevin McCloskey, Marc Berndl, Vijay Pande, Patrick Riley arXiv:1603.00856
ノード(原子)の特徴量作成
34. GNNの適用:分子データ・結晶データ
• 分子データにも応用可能
→様々な種類のGNNが提案され分子データに対するDeep Learning 研究が加速
– NFP, GGNN, MPNN, GWM etc…
• 近年は座標データや結晶分子データにも応用されてきている
– SchNet, CGCNN, MEGNet, Cormorant, DimeNet, PhysNet, EGNN, TeaNet etc…
34
NFP: “Convolutional Networks on Graph for
Learning Molecular Fingerprints”
https://arxiv.org/abs/1509.09292
GWM: “Graph Warp Module: an Auxiliary Module for
Boosting the Power of Graph Neural Networks in Molecular Graph Analysis”
https://arxiv.org/pdf/1902.01020.pdf
CGCNN: “Crystal Graph Convolutional Neural Networks for an
Accurate and Interpretable Prediction of Material Properties”
https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.120.145301
35. SchNet:概要
• 原子間距離 r に対して連続的に変化するContinuous filter convolution (cfconv)を提案し
原子位置 r の変化に対応できるNeural Networkを構成
“SchNet: A continuous-filter convolutional neural network for modeling quantum interactions”
https://arxiv.org/abs/1706.08566
RBF kernel
35
36. 周期境界条件のある系へのGNN活用
• CGCNNで、周期境界条件のある系に対するグラフ構築方法が提案された
• MEGNetでは、孤立系(分子)・周期境界条件(固体)双方へのGNN適用を報告
36
CGCNN: “Crystal Graph Convolutional Neural Networks for an Accurate
and Interpretable Prediction of Material Properties”
https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.120.145301
MEGNet: “Graph Networks as a Universal Machine Learning Framework
for Molecules and Crystals”
https://pubs.acs.org/doi/10.1021/acs.chemmater.9b01294