SlideShare ist ein Scribd-Unternehmen logo
1 von 40
Downloaden Sie, um offline zu lesen
Neural Message Passing for Quantum Chemistry,
Gilmer+, '17
2017年6月9日
@shima_x
Agenda
概要
モチベーション
手法
実験/結果
コメント
概要
Message Passing Neural Networks ﴾MPNNs﴿の提案
グラフ構造の入力に対してmessage passing algorithmとaggregation functionを学習
するモデル
計算コストの高いDFT(密度汎関数理論)をNNでモデル化したもの﴾計算高速化﴿
10 second ‐> 10 secondに計算時間を短縮
分子のグラフ構造データから、形状の同形性を考慮した普遍性を学習する
新規の構造との関連性/分子特性の把握
QM9 datasetを使用
約130k個の分子がそれぞれ13個の特性を持っており、それを予測するタスクで評価
分子特性を推定するタスクにおいてSoTA
3 −2
貢献
精度の高いモデルを構築
chemical accuracyで11/13を的中
分子の構造のみを入力とした場合でも5/13の特性を的中
大きなグラフ構造が入力されたとしても、高速にメモリ使用量を抑えた計算が可能なモ
デルを構築した
モチベーション
有機物の特性の推定を汎用的に低コストで行いたい
手法
Message Passing Neural Networks
forward phaseは2つのphaseが存在
message passing phase
T time steps
message functions: M
vertex update functions: U
各ノードの隠れ状態:h
messages: m
readout phase
t
t
v
t
v
t
ネットワークイメージ
引用:The graph neural network model, Scarselli+, '09
ネットワークイメージ
引用:The graph neural network model, Scarselli+, '09
Message Passing Neural Networks
Notation
G: undirected graphs
x : node features
e : edge features
v
vw
Message Passing Neural Networks
message update
m = M (h , h , e )
h = U (h , m )
N(v) denotes the neighbors of v in graph G
エッジの隠れ状態もh として同じように扱う事ができる﴾Kearnes et al. ﴾2016﴿ 参照﴿
v
t+1
w∈N(v)
∑ t v
t
w
t
w
v
v
t+1
t v
t
v
t+1
evw
t
Message Passing Neural Networks
readout phase
= R({h ∣v ∈ G})
R: readout function
y^ v
T
Message Passing Neural Networks
以下の手法をMPNNとして考える
Convolutional Networks for Learning Molecular Fingerprints
Gated Graph Neural Networks ﴾GG‐NN﴿
Interaction Networks
Molecular Graph Convolutions
Laplacian Based Methods
Message Passing Neural Networks
Convolutional Networks for Learning Molecular Fingerprints
message function
M(h , h , e ) = (h , e )
﴾., .﴿ denotes concatenation
update function
U (h , m ) = σ(H m )
σ: シグモイド関数
deg(v): ノードvの次数
H : 時間tの時の学習済みのマトリクス﴾Nはノードの時数﴿
v w vw w vw
t v
t
v
t+1
t
deg(v)
v
t+1
t
N
Convolutional Networks for Learning Molecular
Rはskip connectionを持っている
すべての隠れ層h に対して
R = f( softmax(W h )
f: neural network
W : time step毎の学習済みのreadout matrices
エッジとノードをそれぞれで足しこんでconcat
したがって、エッジとノードを区別することが出来ないのが欠点
m = ( h , e )
v
t
v,t
∑ t v
t
t
v
t+1
∑ w
t
∑ vw
Message Passing Neural Networks
Gated Graph Neural Networks ﴾GG‐NN﴿
message function
M(h , h , e ) = A h
A is a learned matrix, one for each edge label e﴾the model assumes discrete edge types﴿
vertex update function
U = GRU(h , m )
GRU﴾Gated Recurrent Unit﴿はweight tying的な役割で使用
v w vw evw w
t
evw
t v
t
v
t+1
Gated Graph Neural Networks ﴾GG‐NN﴿
readout function
R = σ(i(h , h )) ⊙ j(h )
i and j are neural networks, and ⊙ denotes elementwise multiplication
v∈V
∑ v
(T)
v
0
v
(T)
Message Passing Neural Networks
Interaction Networks
message function: M(h , x , m )
入力が(h , h , e )のNeural Network
﴾・,・,・﴿はconcat
vertex update function: U(h , x , m )
入力が(h , x , m )のNeural Network
v v v
v w vw
v v v
v v v
Interaction Networks
readout function
入力が最終的な隠れ状態であるh を入力としたNeural Network
R = f( h )
originalのモデルではT=1でうまく学習/推定可能(らしい)
v
T
v∈G
∑ v
T
Message Passing Neural Networks
Molecular Graph Convolutions
一般的なMPNNsからすこし逸脱した手法。
message function
M(h , h , e ) = e
vertex update function
U (h , m ) = ReLU(W (α(W h ), m ))
edge state update
e = U (e , h , h ) = ReLU(W (ReLU(W , e ), ReLU(W (h , h ))))
where the W are also learned weight matrices
v
t
w
t
vw
t
vw
t
t v
t
v
t+1
1 0 v
t
v
t+1
vw
t+1
t
′
vw
t
v
t
w
t
4 2 vw
t
3 v
t
w
t
i
Message Passing Neural Networks
Laplacian Based Methods
message function
M (h , h ) = C h
where the matrices C are parameterized by the eigenvectors of the graph laplacian L
c = (deg(v)deg(w)) A
real valued adjacency matrix A
t v
t
w
t
vw
t
w
t
vw
t
vw
−1/2
vw
Laplacian Based Methods
vertex update function
U (h , m ) = σ(m )
σ is a chosen non‐linearity ﴾such as ReLU﴿
下の構造がKipf & Welling ﴾2016﴿では使われている
U (h , m ) = ReLU(W m )
t v
t
v
t+1
v
t+1
v
t
v
t
v
t+1 t
v
t+1
Message Passing Neural Networks
上で説明したアプローチの欠点
計算コストが高い
解決策の一つ﴾Marino et al, 2016参照﴿
各時間ステップでグラフのサブセットのみにメッセージを渡す
これにより、GG‐NNアーキテクチャをより大きなグラフに適合
QM9 Dataset
データセット内に含まれている原子
Hydrogen ﴾H﴿
Carbon ﴾C﴿
Oxygen ﴾O﴿
Nitrogen﴾N﴿
Flourine ﴾F﴿
up to 9 heavy ﴾non Hydrogen﴿ atoms
化合物種類
134k druglike organic molecules that span a wide range of chemistry
有機物特性
1. the atomization energy at 0KU ﴾eV﴿
2. atomization energy at room temperature U﴾eV﴿
3. enthalpy of atomization at room temperature H﴾eV﴿
4. free energy of atomization G﴾eV﴿
5. highest fundamental vibrational frequency ω_1 (cm )
6. zero point vibrational energy ﴾ZPVE﴿﴾eV﴿
7. highest occupied molecular orbital ﴾HOMO﴿ ϵ (eV )
8. the energy of the lowest unoccupied molecular orbital ﴾LUMO﴿ ϵ (eV )
9. the electron energy gap ﴾∆ϵ(eV )﴿
10. The electron energy gap is simply the difference ϵ − ϵ
11. the electronic spatial extent ⟨R ⟩(Bohr )
12. the norm of the dipole moment µ﴾Debye﴿
13. the norm of static polarizability α(Bohr )
0
−1
HOMO
LUMO
HOMO LUMO
2 2
3
MPNNをイジリたおす
これ以降のnotation
d: 各ノードの隠れ層の次元
n: グラフ内のノード数
実験概要
GG‐NNをベースラインとして考える
様々なmessage function, output functionを試した
適切な入力表現を探した
適切なハイパーパラメタを探した
有向グラフとして計算した
message channel数が2倍になる=2dになる
MPNNモデルへの入力
グラフのノードに対する特徴ベクトルのセットx
結合の種類、原子間の距離を含んだ隣接行列A
初期隠れ状態h は原子入力特徴ベクトルx で設定
次元dまで埋める
各時間ステップtで重みを共有
update functionではGRUを使用
v
v
0
v
Message Functionsの実験
3種類つかってイジってみた
Matrix Multiplication
M(h , h , e ) = A h
Edge Network
M(h , h , e ) = A(e )h
A(e )はニューラルネットワーク
d×dの形に変形する
v w vw evw w
v w vw vw w
vw
Message Functionsの実験
Pair Message
matrix multiplication ruleの特徴
ノードwからノードvへのメッセージが隠れ状態h およびエッジe の関数のみ
隠れ状態h に依存しない
理論的には、メッセージチャネルをより効率的に使用できる
ノードメッセージが送信元ノードと送信先ノードの両方nの情報をよりどころとする
場合は
したがってメッセージ関数の変形を使用することも試みた﴾Battaglia et al., 2016﴿
エッジeに沿ったwからvへのメッセージは、m = f(h , h , e )
fはニューラルネットワーク
有向グラフの場合、message functionsはM とM の2つを使用
w vw
v
t
wv w
t
v
t
vw
in out
Virtual Graph Elements
エッジの無い部分に仮想のエッジを作る
グラフ内のすべてのノードに仮想的に繋がっている潜"master"ノードを考えたモデルも
使用した
パフォーマンスに大きな影響はないO﴾|E|d +nd ﴿2
master
2
Readout Functions
2つ実験した
GG‐NNで使用されていた関数(論文中式4参照)
set2setモデル
ORDER MATTERS: SEQUENCE TO SEQUENCE FOR SETS, Vinyals+, '16
このモデルを最初に適用
Multiple Towers
MPNNの問題の一つはスケーラビリティ
非常に計算量が大きいO(n d )
対応策
h を使用するのではなく、k次元毎に分割したh を使用
k個並列にupdate functionが計算できるので、計算効率を上げられる
2 2
v
t
v
t,k
入力表現
入力の表現も3考えてみた
今回のデータではノードの上限数は29だった
Chemical Graph
距離無し
エッジ情報は結合なし、一重結合、二重結合、三重結合
入力表現
Distance bins
matrix multiply message functionは離散的なエッジ型
原子間の距離を10のbinに分割
[2,6]は1を1binとする
[0,2],[6,∞]はまとめて1bin
分割幅は手動で決定した
隣接行列
結合された原子の結合タイプ
結合されていない原子の距離
原子間距離は結合タイプによってほぼ決まる
距離の10bin+結合タイプ4=14次元ベクトルの特徴量
入力表現
Raw distance feature
隣接行列Aの次元(1ノードが持つベクトルの次元)は5次元
内訳は、原子間距離で1次元、結合タイプを表す4次元の1ホットベクトル
Training
ハイパーパラメタ
50パターンのハイパーパラメタの探索(一様サンプリング)
Tは3≤T≤8﴾経験的にT≥3だといい感じに学習﴿
set2setの計算回数 M:1≤M≤12
学習条件
最適化手法: adam
batch size: 20, N of step: 2million﴾360epochs﴿
initial learning rate: [1e , 5e ]で一様サンプリング
decay factor F: 線形、学習係数を最終的に初期値の10%から90%にする
−5 −4
Training
データセット
QM‐9 datasetを使用
全130,462分子
validation set: 10,000分子をランダムに選択
early stopping, model選択
test set: 10,000分子をランダムに選択
結果のスコア算出
training set: 残り
すべての特性値を0から1に正規化
loss: 特性値との2乗誤差
Training
原子の特徴
実験結果
アルゴリズムごとの比較
※ 結果はすべてmean absolute error﴾MAE﴿
実験結果
データ構造を変えて試してみた
実験結果
joint training: 特性値を一括で推定
individual traing: 特性値1個につき1つのモデルを作成
tower8: k=8のtower構造にした場合

Weitere ähnliche Inhalte

Was ist angesagt?

[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...Deep Learning JP
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
Prml5 6
Prml5 6Prml5 6
Prml5 6K5_sem
 
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)Akisato Kimura
 
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)Taiji Suzuki
 
Introduction qc
Introduction qcIntroduction qc
Introduction qckoutarmiur
 
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習Masayuki Tanaka
 
El text.tokuron a(2019).ishimura190725
El text.tokuron a(2019).ishimura190725El text.tokuron a(2019).ishimura190725
El text.tokuron a(2019).ishimura190725RCCSRENKEI
 
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習Masahiro Suzuki
 
Ikeph9 2014-1112
Ikeph9 2014-1112Ikeph9 2014-1112
Ikeph9 2014-1112GM3D
 
A lda+u study of selected iron compounds 第一章
A lda+u study of selected iron compounds 第一章A lda+u study of selected iron compounds 第一章
A lda+u study of selected iron compounds 第一章dc1394
 
20030203 doctor thesis_presentation_makotoshuto
20030203 doctor thesis_presentation_makotoshuto20030203 doctor thesis_presentation_makotoshuto
20030203 doctor thesis_presentation_makotoshutoMakoto Shuto
 
El text.tokuron a(2019).yoshii190704
El text.tokuron a(2019).yoshii190704El text.tokuron a(2019).yoshii190704
El text.tokuron a(2019).yoshii190704RCCSRENKEI
 
PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1
PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1
PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1Len Matsuyama
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじsleepy_yoshi
 
第9回 配信講義 計算科学技術特論A(2021)
第9回 配信講義 計算科学技術特論A(2021)第9回 配信講義 計算科学技術特論A(2021)
第9回 配信講義 計算科学技術特論A(2021)RCCSRENKEI
 
パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0sleipnir002
 

Was ist angesagt? (20)

[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
 
Jokyokai
JokyokaiJokyokai
Jokyokai
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
PRML chapter5
PRML chapter5PRML chapter5
PRML chapter5
 
Prml5 6
Prml5 6Prml5 6
Prml5 6
 
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)
 
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
 
Introduction qc
Introduction qcIntroduction qc
Introduction qc
 
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習
 
El text.tokuron a(2019).ishimura190725
El text.tokuron a(2019).ishimura190725El text.tokuron a(2019).ishimura190725
El text.tokuron a(2019).ishimura190725
 
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習
 
Ikeph9 2014-1112
Ikeph9 2014-1112Ikeph9 2014-1112
Ikeph9 2014-1112
 
PRML Chapter 5
PRML Chapter 5PRML Chapter 5
PRML Chapter 5
 
A lda+u study of selected iron compounds 第一章
A lda+u study of selected iron compounds 第一章A lda+u study of selected iron compounds 第一章
A lda+u study of selected iron compounds 第一章
 
20030203 doctor thesis_presentation_makotoshuto
20030203 doctor thesis_presentation_makotoshuto20030203 doctor thesis_presentation_makotoshuto
20030203 doctor thesis_presentation_makotoshuto
 
El text.tokuron a(2019).yoshii190704
El text.tokuron a(2019).yoshii190704El text.tokuron a(2019).yoshii190704
El text.tokuron a(2019).yoshii190704
 
PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1
PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1
PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
 
第9回 配信講義 計算科学技術特論A(2021)
第9回 配信講義 計算科学技術特論A(2021)第9回 配信講義 計算科学技術特論A(2021)
第9回 配信講義 計算科学技術特論A(2021)
 
パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0
 

Ähnlich wie Nmp for quantum_chemistry

[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介Deep Learning JP
 
TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecShin Asakawa
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理Ryo Nakamura
 
ネットワーク科学 空間システムデザイン
ネットワーク科学 空間システムデザインネットワーク科学 空間システムデザイン
ネットワーク科学 空間システムデザインhayashiresearchlab
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process ModelsDeep Learning JP
 
Icml2019 kyoto ohno_ver20190805
Icml2019 kyoto ohno_ver20190805Icml2019 kyoto ohno_ver20190805
Icml2019 kyoto ohno_ver20190805Shuntaro Ohno
 
東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 ClusteringHiroshi Ono
 
Back propagation
Back propagationBack propagation
Back propagationT2C_
 
深層学習 Day1レポート
深層学習 Day1レポート深層学習 Day1レポート
深層学習 Day1レポートtaishimotoda
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究についてDeep Learning JP
 
OpenNLP - MEM and Perceptron
OpenNLP - MEM and PerceptronOpenNLP - MEM and Perceptron
OpenNLP - MEM and PerceptronKoji Sekiguchi
 
Casual learning machine learning with_excel_no6
Casual learning machine learning with_excel_no6Casual learning machine learning with_excel_no6
Casual learning machine learning with_excel_no6KazuhiroSato8
 
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介Masayoshi Kondo
 
Long short-term memory (LSTM)
Long short-term memory (LSTM)Long short-term memory (LSTM)
Long short-term memory (LSTM)Kenta Ishii
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Wataru Kishimoto
 
ACLreading2014@Ace12358
ACLreading2014@Ace12358ACLreading2014@Ace12358
ACLreading2014@Ace12358Ace12358
 

Ähnlich wie Nmp for quantum_chemistry (20)

[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
 
TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vec
 
Paper: seq2seq 20190320
Paper: seq2seq 20190320Paper: seq2seq 20190320
Paper: seq2seq 20190320
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理
 
ネットワーク科学 空間システムデザイン
ネットワーク科学 空間システムデザインネットワーク科学 空間システムデザイン
ネットワーク科学 空間システムデザイン
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
 
Icml2019 kyoto ohno_ver20190805
Icml2019 kyoto ohno_ver20190805Icml2019 kyoto ohno_ver20190805
Icml2019 kyoto ohno_ver20190805
 
yyoshida thesis
yyoshida thesisyyoshida thesis
yyoshida thesis
 
CMSI計算科学技術特論B(13) 大規模量子化学計算(2)
CMSI計算科学技術特論B(13) 大規模量子化学計算(2)CMSI計算科学技術特論B(13) 大規模量子化学計算(2)
CMSI計算科学技術特論B(13) 大規模量子化学計算(2)
 
東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering
 
Back propagation
Back propagationBack propagation
Back propagation
 
CMSI計算科学技術特論B(8) オーダーN法1
 CMSI計算科学技術特論B(8) オーダーN法1 CMSI計算科学技術特論B(8) オーダーN法1
CMSI計算科学技術特論B(8) オーダーN法1
 
深層学習 Day1レポート
深層学習 Day1レポート深層学習 Day1レポート
深層学習 Day1レポート
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
OpenNLP - MEM and Perceptron
OpenNLP - MEM and PerceptronOpenNLP - MEM and Perceptron
OpenNLP - MEM and Perceptron
 
Casual learning machine learning with_excel_no6
Casual learning machine learning with_excel_no6Casual learning machine learning with_excel_no6
Casual learning machine learning with_excel_no6
 
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
 
Long short-term memory (LSTM)
Long short-term memory (LSTM)Long short-term memory (LSTM)
Long short-term memory (LSTM)
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
 
ACLreading2014@Ace12358
ACLreading2014@Ace12358ACLreading2014@Ace12358
ACLreading2014@Ace12358
 

Mehr von shima o

[読会]Causal transfer random forest combining logged data and randomized expe...
[読会]Causal transfer random forest   combining logged data and randomized expe...[読会]Causal transfer random forest   combining logged data and randomized expe...
[読会]Causal transfer random forest combining logged data and randomized expe...shima o
 
[読会]P qk means-_ billion-scale clustering for product-quantized codes
[読会]P qk means-_ billion-scale clustering for product-quantized codes[読会]P qk means-_ billion-scale clustering for product-quantized codes
[読会]P qk means-_ billion-scale clustering for product-quantized codesshima o
 
[読会]Long tail learning via logit adjustment
[読会]Long tail learning via logit adjustment[読会]Long tail learning via logit adjustment
[読会]Long tail learning via logit adjustmentshima o
 
[読会]A critical review of lasso and its derivatives for variable selection und...
[読会]A critical review of lasso and its derivatives for variable selection und...[読会]A critical review of lasso and its derivatives for variable selection und...
[読会]A critical review of lasso and its derivatives for variable selection und...shima o
 
[読会]Themis decentralized and trustless ad platform with reporting integrity
[読会]Themis decentralized and trustless ad platform with reporting integrity[読会]Themis decentralized and trustless ad platform with reporting integrity
[読会]Themis decentralized and trustless ad platform with reporting integrityshima o
 
[読会]Logistic regression models for aggregated data
[読会]Logistic regression models for aggregated data[読会]Logistic regression models for aggregated data
[読会]Logistic regression models for aggregated datashima o
 
Introduction of introduction_to_group_theory
Introduction of introduction_to_group_theoryIntroduction of introduction_to_group_theory
Introduction of introduction_to_group_theoryshima o
 
Squeeze and-excitation networks
Squeeze and-excitation networksSqueeze and-excitation networks
Squeeze and-excitation networksshima o
 
Dynamic filters in graph convolutional network
Dynamic filters in graph convolutional networkDynamic filters in graph convolutional network
Dynamic filters in graph convolutional networkshima o
 
Dl study g_learning_to_remember_rare_events
Dl study g_learning_to_remember_rare_eventsDl study g_learning_to_remember_rare_events
Dl study g_learning_to_remember_rare_eventsshima o
 
連続最適化勉強会
連続最適化勉強会連続最適化勉強会
連続最適化勉強会shima o
 
ReviewNet_161122
ReviewNet_161122ReviewNet_161122
ReviewNet_161122shima o
 
finite time analysis of the multiarmed bandit problem
finite time analysis of the multiarmed bandit problemfinite time analysis of the multiarmed bandit problem
finite time analysis of the multiarmed bandit problemshima o
 
normalized online learning
normalized online learningnormalized online learning
normalized online learningshima o
 
logistic regression in rare events data
logistic regression in rare events datalogistic regression in rare events data
logistic regression in rare events datashima o
 
Joint optimization of bid and budget allocation in sponsored search
Joint optimization of bid and budget allocation in sponsored searchJoint optimization of bid and budget allocation in sponsored search
Joint optimization of bid and budget allocation in sponsored searchshima o
 
Towards a robust modeling of temporal interest change patterns for behavioral...
Towards a robust modeling of temporal interest change patterns for behavioral...Towards a robust modeling of temporal interest change patterns for behavioral...
Towards a robust modeling of temporal interest change patterns for behavioral...shima o
 
Real time bidding algorithms for performance-based display ad allocation
Real time bidding algorithms for performance-based display ad allocationReal time bidding algorithms for performance-based display ad allocation
Real time bidding algorithms for performance-based display ad allocationshima o
 
Fingind the right consumer - optimizing for conversion in display advertising...
Fingind the right consumer - optimizing for conversion in display advertising...Fingind the right consumer - optimizing for conversion in display advertising...
Fingind the right consumer - optimizing for conversion in display advertising...shima o
 
Real time bid optimization with smooth budget delivery in online advertising
Real time bid optimization with smooth budget delivery in online advertisingReal time bid optimization with smooth budget delivery in online advertising
Real time bid optimization with smooth budget delivery in online advertisingshima o
 

Mehr von shima o (20)

[読会]Causal transfer random forest combining logged data and randomized expe...
[読会]Causal transfer random forest   combining logged data and randomized expe...[読会]Causal transfer random forest   combining logged data and randomized expe...
[読会]Causal transfer random forest combining logged data and randomized expe...
 
[読会]P qk means-_ billion-scale clustering for product-quantized codes
[読会]P qk means-_ billion-scale clustering for product-quantized codes[読会]P qk means-_ billion-scale clustering for product-quantized codes
[読会]P qk means-_ billion-scale clustering for product-quantized codes
 
[読会]Long tail learning via logit adjustment
[読会]Long tail learning via logit adjustment[読会]Long tail learning via logit adjustment
[読会]Long tail learning via logit adjustment
 
[読会]A critical review of lasso and its derivatives for variable selection und...
[読会]A critical review of lasso and its derivatives for variable selection und...[読会]A critical review of lasso and its derivatives for variable selection und...
[読会]A critical review of lasso and its derivatives for variable selection und...
 
[読会]Themis decentralized and trustless ad platform with reporting integrity
[読会]Themis decentralized and trustless ad platform with reporting integrity[読会]Themis decentralized and trustless ad platform with reporting integrity
[読会]Themis decentralized and trustless ad platform with reporting integrity
 
[読会]Logistic regression models for aggregated data
[読会]Logistic regression models for aggregated data[読会]Logistic regression models for aggregated data
[読会]Logistic regression models for aggregated data
 
Introduction of introduction_to_group_theory
Introduction of introduction_to_group_theoryIntroduction of introduction_to_group_theory
Introduction of introduction_to_group_theory
 
Squeeze and-excitation networks
Squeeze and-excitation networksSqueeze and-excitation networks
Squeeze and-excitation networks
 
Dynamic filters in graph convolutional network
Dynamic filters in graph convolutional networkDynamic filters in graph convolutional network
Dynamic filters in graph convolutional network
 
Dl study g_learning_to_remember_rare_events
Dl study g_learning_to_remember_rare_eventsDl study g_learning_to_remember_rare_events
Dl study g_learning_to_remember_rare_events
 
連続最適化勉強会
連続最適化勉強会連続最適化勉強会
連続最適化勉強会
 
ReviewNet_161122
ReviewNet_161122ReviewNet_161122
ReviewNet_161122
 
finite time analysis of the multiarmed bandit problem
finite time analysis of the multiarmed bandit problemfinite time analysis of the multiarmed bandit problem
finite time analysis of the multiarmed bandit problem
 
normalized online learning
normalized online learningnormalized online learning
normalized online learning
 
logistic regression in rare events data
logistic regression in rare events datalogistic regression in rare events data
logistic regression in rare events data
 
Joint optimization of bid and budget allocation in sponsored search
Joint optimization of bid and budget allocation in sponsored searchJoint optimization of bid and budget allocation in sponsored search
Joint optimization of bid and budget allocation in sponsored search
 
Towards a robust modeling of temporal interest change patterns for behavioral...
Towards a robust modeling of temporal interest change patterns for behavioral...Towards a robust modeling of temporal interest change patterns for behavioral...
Towards a robust modeling of temporal interest change patterns for behavioral...
 
Real time bidding algorithms for performance-based display ad allocation
Real time bidding algorithms for performance-based display ad allocationReal time bidding algorithms for performance-based display ad allocation
Real time bidding algorithms for performance-based display ad allocation
 
Fingind the right consumer - optimizing for conversion in display advertising...
Fingind the right consumer - optimizing for conversion in display advertising...Fingind the right consumer - optimizing for conversion in display advertising...
Fingind the right consumer - optimizing for conversion in display advertising...
 
Real time bid optimization with smooth budget delivery in online advertising
Real time bid optimization with smooth budget delivery in online advertisingReal time bid optimization with smooth budget delivery in online advertising
Real time bid optimization with smooth budget delivery in online advertising
 

Kürzlich hochgeladen

自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 

Kürzlich hochgeladen (9)

自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 

Nmp for quantum_chemistry