SlideShare ist ein Scribd-Unternehmen logo
1 von 32
Downloaden Sie, um offline zu lesen
/191
グラフデータの機械学習における

特徴表現の設計と学習
北海道⼤学・JSTさきがけ
takigawa@ist.hokudai.ac.jp
瀧川 ⼀学
2017.9.8 @⽇本応⽤数理学会 2017年度 年会 [機械学習研究部会 OS]
/192
本⽇の話
• 背景:有機低分⼦の活性・物性の予測モデリング
• 多数のグラフからの教師つき学習
• スパース線形学習(Takigawa+ 2017)
• 勾配ブースティングによる回帰森(Yokoyama+ Submitted)
• 部分構造指⽰⼦による0-1ブール変数に対する仮説空間
• 交互作⽤と線形 vs ⾮線形:Graph-XOR問題
• 低分⼦化合物のグラフエンコードと特徴量計算
• Molecular Graph, Invariants, Input Featurization
• Circular FingerprintとMorgan Algorithm
• 最近の話題: 量⼦化学計算近似・材料Informatics

Neural Message Passing (Google Brain/DeepMind/Basel-U)
/192
本⽇の話
• 背景:有機低分⼦の活性・物性の予測モデリング
• 多数のグラフからの教師つき学習
• スパース線形学習(Takigawa+ 2017)
• 勾配ブースティングによる回帰森(Yokoyama+ Submitted)
• 部分構造指⽰⼦による0-1ブール変数に対する仮説空間
• 交互作⽤と線形 vs ⾮線形:Graph-XOR問題
• 低分⼦化合物のグラフエンコードと特徴量計算
• Molecular Graph, Invariants, Input Featurization
• Circular FingerprintとMorgan Algorithm
• 最近の話題: 量⼦化学計算近似・材料Informatics

Neural Message Passing (Google Brain/DeepMind/Basel-U)
1部
(10分)
2部
(5分)
/193
背景:有機低分⼦の活性・物性の予測モデリング
医薬品, 細胞制御剤, 有機材料, 環境物質, 殺⾍剤, 除草剤, 化粧品, ⾷品, …
• 化学構造データセットは、数値ではなく「構造(形・関係)」のデータで
背後の法則性理解が難しい…😫
• いろんなレベルの活性・物性に対するタスクが研究されている。
MoleculeNet: A Benchmark for Molecular Machine Learning

https://arxiv.org/abs/1703.00564

https://github.com/deepchem/deepchem (https://deepchem.io/)
/194
低分⼦に対する典型的ベンチマークセットの例
• mutagenic potency (変異原性試験 Ames test)
• carcinogenic potency (環境物質の発がん性試験 in vivo)
• endocrine disruption (環境物質の内分泌攪乱性試験)
• growth inhibition (抗マラリア原⾍性やガン細胞成⻑阻害性 in vitro)
• aqueous solubility (⽔溶解度)
N
NH
OO
HH
H
H H
H
H
H
H
H
H
H
H
H
H+1 +1
H
H
H
H
H
H
H
H
H
H -1
O
O
O
O
O
O
Cl
H
H
H
H
H
HH
H
H
H
H
H
H
H
H
H
H
-1
Br
Br O P
O
O Br
Br
O
Br
Br
H
H
H
H
H
H
H
H
H
H
HH
H
HH
+1
N
S
N
N
H
H
H
H
H
H
H
+1
H
H
H
H
H
H
H
H
O
N
O
O
H +1
H
H
O
O
H
H
N
O
O
Cl
ClCl
-1
H
H
H
H
H
H H
N
O
O
+1 -1
H
H
H
H
H
H
H H
H
N
O
O
-1
H
H
H
H
H
H
H
N
H
N
O
O
N
O
O
H
H
H
H
H
H
H
H
N
+1
-2.885
CH3
O
O
H
N
Cl
Cl
Cl
Cl
Cl
-6.545 -4.138
H3C
O O
O
O
O
O
H3C
CH3
CH2
-5.246
O
HN
O
O
NH
-0.527
CH3
HO
OH
CH3
N
O
O
-0.816
CH3
N
N
H
N
H
H3C
N
0.739
H3C
H3C
NH
O
N
O
NO
1.399
CH3
O N
NH2
O
CH3
Br
-1.753 CH3
N
H3C
H
NS
N
O
CH3
N
OH
1.394
CH3
CH3N
N
N
CH3H3C
H2N NH2
-3.171
H
OH
O
HO
CH3
H
H
O
CH3
+1
H
O
OH3C HH
H
O
H3C
S
CH3
O
+1
H
H
O
CH3
CH3
OO
HO
H3CH
HO
F
H
O
H3C
+1
NH2
O
N
HO
HO
O
-1 H
H
O
O
OH3C
O
O
O
CH3
O
CH3
HO
CH3
H
O
O
CH3
H
H
N
H
N O
H3C
-1
O
O
O
-1
/195
0.1 0.7 1.2 0.2 1.3 0.9
y1 y2 y3 y4 y5
本題:多数のグラフからの教師つき学習
関⼼:グラフと関連値の対応(関数)の推定 (有限⾒本対からの教師つき学習)
グラフ 値
有限⾒本対       から となるようなモデル  を構成したい
…
…
注意! ⼤きなネットワークが⼀つあり各頂点での関連値を予測する問題とは異なる
/196
0.1
0.7
0.9
⋮ ⋮
1.2
y
部分構造特徴による超⾼次0-1ブール変数空間
/196
0.1
0.7
0.9
⋮ ⋮
1.2
y
部分構造特徴による超⾼次0-1ブール変数空間
部分グラフ特徴
…
0 0 1 1 1 0 …
1 0 0 0 0 1 …
1 1 0 1 1 0 …
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋱
1 0 1 1 1 0 …
部分グラフ同型のindicator
/196
0.1
0.7
0.9
⋮ ⋮
1.2
y
部分構造特徴による超⾼次0-1ブール変数空間
部分グラフ特徴
…
0 0 1 1 1 0 …
1 0 0 0 0 1 …
1 1 0 1 1 0 …
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋱
1 0 1 1 1 0 …
部分グラフ同型のindicator
• 普通は事前に特徴は与えられないので
必要な特徴を探索しながら同時学習
/196
0.1
0.7
0.9
⋮ ⋮
1.2
y
部分構造特徴による超⾼次0-1ブール変数空間
部分グラフ特徴
…
0 0 1 1 1 0 …
1 0 0 0 0 1 …
1 1 0 1 1 0 …
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋱
1 0 1 1 1 0 …
部分グラフ同型のindicator
• 普通は事前に特徴は与えられないので
必要な特徴を探索しながら同時学習
• 各々の⼊⼒グラフGは a bag of
subgraph features で表現される
/196
0.1
0.7
0.9
⋮ ⋮
1.2
y
部分構造特徴による超⾼次0-1ブール変数空間
部分グラフ特徴
…
0 0 1 1 1 0 …
1 0 0 0 0 1 …
1 1 0 1 1 0 …
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋱
1 0 1 1 1 0 …
部分グラフ同型のindicator
• 普通は事前に特徴は与えられないので
必要な特徴を探索しながら同時学習
• 各々の⼊⼒グラフGは a bag of
subgraph features で表現される
• indicatorで考えると0-1ブール変数

(変数候補の数は組合せ爆発的に巨⼤)
/196
0.1
0.7
0.9
⋮ ⋮
1.2
y
部分構造特徴による超⾼次0-1ブール変数空間
部分グラフ特徴
…
0 0 1 1 1 0 …
1 0 0 0 0 1 …
1 1 0 1 1 0 …
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋱
1 0 1 1 1 0 …
部分グラフ同型のindicator
• 普通は事前に特徴は与えられないので
必要な特徴を探索しながら同時学習
• 各々の⼊⼒グラフGは a bag of
subgraph features で表現される
• indicatorで考えると0-1ブール変数

(変数候補の数は組合せ爆発的に巨⼤)
• 特徴ベクトルが取り得る値は有限

(超⾼次ブール超⽴⽅体の端点のみ)
/196
0.1
0.7
0.9
⋮ ⋮
1.2
y
部分構造特徴による超⾼次0-1ブール変数空間
部分グラフ特徴
…
0 0 1 1 1 0 …
1 0 0 0 0 1 …
1 1 0 1 1 0 …
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋱
1 0 1 1 1 0 …
部分グラフ同型のindicator
• 普通は事前に特徴は与えられないので
必要な特徴を探索しながら同時学習
• 各々の⼊⼒グラフGは a bag of
subgraph features で表現される
• indicatorで考えると0-1ブール変数

(変数候補の数は組合せ爆発的に巨⼤)
• 特徴ベクトルが取り得る値は有限

(超⾼次ブール超⽴⽅体の端点のみ)
• グラフ包含関係による特殊な相関
/197
関係する問題:アイテムセット上の教師つき学習
部分アイテムセット特徴 アイテムセットの探索空間
部分グラフの探索空間
0.1
0.7
0.9
⋮ ⋮
1.2
…
0 0 1 1 1 0 …
1 0 0 0 0 1 …
1 1 0 1 1 0 …
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋱
1 0 1 1 1 0 …
y {a} {a,d} {b,e} {b} {f,g} {h}
{b,e,f,g}
{a,g,h}
{a,b,d,f,g}
{a,b,e,f,g}
(Hasse図)
(Hasse図)
{ }
{a} {b} {c}
{a,b} {a,c} {a,d} {b,c}
{a,b,c}
{d}
{a,b,d} {a,c,d} {b,c,d}
※単純には各アイテムのindicator, ただし…(後述)
/198
既存⼿法: 部分構造特徴と予測モデルの同時学習
• Kudo+ NIPS 2004
• Saigo+ Mach Learn 2009 (gBoost法)
• 各部分グラフ特徴のindicatorとその否定を弱学習器とみな
す。(実際には定数項処理のため{-1,1}で対象化)
• 最も誤差を減らす部分グラフ特徴を探索する作業が

弱学習に相当 (否定も1-indicatorで書けるため)
• 上の探索をBranch & Boundで⾏うための枝刈り条件を導出
• AdaBoost(Freund & Schapire 1997)を⽤いて弱学習器の
加法的アンサンブルを構成
列挙⽊
Hasse図
深さ優先探索
• LPBoost(Demiriz+ 2002)を⽤いて弱学習器の加法的

アンサンブルを改良 (totally corrective boosting)
• LPBoost: 学習問題が線形計画で定式化できる場合、

線形計画を列⽣成法で解く操作がboostingとみなせる
/199
我々のグループの研究事例
問題:既存⼿法は(⼀⾒わかりづらいが)近似できる関数が「線形」のみ (線形の仮説空間)
→ Decision Stumpのブースティングは実数特徴なら⾮線形な仮説を⽣成できるが

  この問題では全て0-1ブール特徴なので加法的に⾜すと線形な仮説に帰着してしまう
/199
我々のグループの研究事例
問題:既存⼿法は(⼀⾒わかりづらいが)近似できる関数が「線形」のみ (線形の仮説空間)
→ Decision Stumpのブースティングは実数特徴なら⾮線形な仮説を⽣成できるが

  この問題では全て0-1ブール特徴なので加法的に⾜すと線形な仮説に帰着してしまう
❶ 線形モデルでどこまで⼀般化できるか?(Takigawa & Mamitsuka TPAMI 2017)
• 指数個ある部分グラフ特徴を妥当なところのみ探索しながら、同時にモデルの

学習も⾏う⽅式は、任意の損失関数のL1とL2の正則化つき最⼩化問題に適⽤可
• Block-Coordinate Gradient Descent (Tseng+ 2006)という最適化法を部分

グラフを探索しながら⾏う。L2正則化つけるなら⾮常にtrickyな枝刈りが必要。
/199
我々のグループの研究事例
問題:既存⼿法は(⼀⾒わかりづらいが)近似できる関数が「線形」のみ (線形の仮説空間)
→ Decision Stumpのブースティングは実数特徴なら⾮線形な仮説を⽣成できるが

  この問題では全て0-1ブール特徴なので加法的に⾜すと線形な仮説に帰着してしまう
❶ 線形モデルでどこまで⼀般化できるか?(Takigawa & Mamitsuka TPAMI 2017)
• 指数個ある部分グラフ特徴を妥当なところのみ探索しながら、同時にモデルの

学習も⾏う⽅式は、任意の損失関数のL1とL2の正則化つき最⼩化問題に適⽤可
• Block-Coordinate Gradient Descent (Tseng+ 2006)という最適化法を部分

グラフを探索しながら⾏う。L2正則化つけるなら⾮常にtrickyな枝刈りが必要。
❷ ⾮線形な仮説も⽣成できるようにするには?(Yokoyama+ Submitted)
• 0-1変数の交互作⽤を考えれば良いので(Stumpじゃなくて)Regression Treeの

学習を実現(枝刈り条件を導出) + それを勾配ブースティングでアンサンブル学習
• 何もコントロールしないとオーバーフィットしてしまうため、各Treeのサイズや

分割条件、ブースティングのStepsizeなどで適切にComplexityをコントロール
/1910
教師つき学習の基本的性質と課題
Regression Treeで仮説空間を⾮線形にすると本当に良いことがあるのか??
d次元の0-1ブール特徴 によるRegression Treeは

擬ブール関数 。擬ブール関数は⼀意なmulti-linear polynomialを持つ 

(Hammer+ 1963)
の共起のindicator
/1910
教師つき学習の基本的性質と課題
Regression Treeで仮説空間を⾮線形にすると本当に良いことがあるのか??
d次元の0-1ブール特徴 によるRegression Treeは

擬ブール関数 。擬ブール関数は⼀意なmulti-linear polynomialを持つ 

(Hammer+ 1963)
の共起のindicator
この性質より例えば次のことが分かる。
• 部分アイテムセット特徴を全て候補に考える場合、その特徴で⾮線形なモデルを作っ
ても、線形な仮説空間に帰着する。(線形モデルで全て表現できる)
• 部分グラフ特徴は、通常は連結な部分グラフしか探索しないため(効率的に探索が

できないため)、⾮線形なモデルがなす仮説空間は⼀般には線形仮説空間より⼤きい
→ グラフの場合で、線形仮説空間では学習に失敗する例を具体的に構成できるか?
/1911
例:Graph-XOR問題
7頂点・6辺の1035個のグラフ (506が正例 +1, 529が負例 -1)
2つパーツを選んで頂点Dでランダムに結線してグラフを作成

- パーツが両⽅同じグループから来ていたら -1

- パーツが各々違うグループから来ていたら +1
/1911
例:Graph-XOR問題
7頂点・6辺の1035個のグラフ (506が正例 +1, 529が負例 -1)
2つパーツを選んで頂点Dでランダムに結線してグラフを作成

- パーツが両⽅同じグループから来ていたら -1

- パーツが各々違うグループから来ていたら +1
結果:線形(提案法でstump, 既存法gBoost, 列挙特徴でLogistic回帰)だとコケるが

   ⾮線形な仮説空間から学習すれば上⼿く解ける (下記 2-fold CVでの精度)
/1912
現状と課題
活性予測の実データでも⾮線形の⽅が良いものの思ったより線形で⼗分?
• グラフデータの性質と有効な学習戦略の関係をもう少し理解したい…
• 活性・物性予測の場合、グラフのエンコードの仕⽅もかなり重要…
/19
Donor 1 0 1 0 0
Acceptor 0 1 1 0 0
Aromatic 0 0 0 1 0
Halogen 0 0 0 0 0
Basic 0 0 1 0 0
Acidic 0 0 0 0 1
13
分⼦グラフとラベル付け
例) アントラニル酸 分⼦グラフ (トポロジ)
FCFP-like (Feature Invariants)ECFP-like (Atom Invariants)
• By Chemical Features: Donor, Acceptor,
Aromatic, Halogen, Basic, Acidic
頂点(atom)のラベル付けの例 (RDKit defaults) ※辺(atom-pair)もラベル付可
• By Connectivity: atomic number, total
degree, #Hs, formal charge, isotope, inRing
Implicit Hydrogens Explicit HydrogensStructural Formula
分⼦グラフへ
エンコーディング
atomic number 8 8 7 6 6 6
total degree 2 1 3 3 3 3
#Hs 1 0 2 0 0 1
formal charge 0 0 0 0 0 0
isotope 0 0 0 0 0 0
in Ring? 0 0 0 1 0 1
/1914
Circular FingerprintとMorgan Algorithm
00010000101000100000001000010010010100001001000101001000
分⼦グラフ 固定⻑の0-1特徴ベクトル (fingerprint)
2
1
0
3
4
5
6
7
8
9
Layer-0 

(diameter 0)
Layer-1 

(diameter 2)
Layer-2 

(diameter 4)
• Layer-0では、各頂点のnode

invariantsの配列をhashして

得た整数IDをその頂点に付与
• node invariantsにはその頂点の

周辺情報が暗に含まれる
[Morgan Algorithmの変種]
• Layer-1では、各頂点について、

隣り合う頂点の整数IDの配列を

hashして得た新たな整数IDで更新
• Layer-2以降ではLayer-1で更新さ

れた各々の頂点の整数IDを使って

同じように近傍で整数IDを更新
各subgraphの整数IDをmodして得た桁のbitを1に
※ECFP4(diameter 4まで), ECFP6(diameter 6まで)がよく使われる
0 1 2
3 4 5 6
7 8 9
0 1 2
3 4 5 6
7 8 9
3
0
4
7
1
5
8
2
6
9
実際には各subgraphは整数IDで保持
/1915
最近の話題:量⼦化学計算・材料Informatics
物性値構造式 基底状態構造 電⼦状態計算
原⼦化エネルギ
電⼦状態
基本振動
電⼦の空間分布
量⼦化学計算 (第⼀原理計算, つまりSchrödinger⽅程式の数値的求解)
Question: この計算を真⾯⽬にやると時間が超かかるので

これをデータ駆動でquickに⾼精度近似できないか?
• ⽣物活性などは分⼦単独の性質ではなく、基本的に何らかの相⼿(相互作⽤)があるこ
とが前提だが、この設定では物質そのもので決まる値が対象
• 各原⼦の3D座標を使える (逆に⾔えば3D座標が変わると変化する値が対象)
• 理論計算値の予測のデータセットの場合、ノイズを含まないかなりクリーンなデータ
• ⽣物活性と異なり、時間さえかけられるのなら対象値を計算する「原理」が存在する
/1915
最近の話題:量⼦化学計算・材料Informatics
物性値構造式 基底状態構造 電⼦状態計算
原⼦化エネルギ
電⼦状態
基本振動
電⼦の空間分布
量⼦化学計算 (第⼀原理計算, つまりSchrödinger⽅程式の数値的求解)
Question: この計算を真⾯⽬にやると時間が超かかるので

これをデータ駆動でquickに⾼精度近似できないか?
• ⽣物活性などは分⼦単独の性質ではなく、基本的に何らかの相⼿(相互作⽤)があるこ
とが前提だが、この設定では物質そのもので決まる値が対象
• 各原⼦の3D座標を使える (逆に⾔えば3D座標が変わると変化する値が対象)
• 理論計算値の予測のデータセットの場合、ノイズを含まないかなりクリーンなデータ
• ⽣物活性と異なり、時間さえかけられるのなら対象値を計算する「原理」が存在する
/1916
Google(+DeepMind)の研究
Googleは2017年4⽉に2報の論⽂を発表
❶を使ってQM9(133,885分⼦)の13物性を従来より300,000倍⾼速に
予測計算 (精度は密度汎関数法による電⼦状態計算と遜⾊ないか良い)
❷ Faber+ Machine learning prediction errors better than DFT accuracy. arXiv:1702.05532
❶ Gilmer+ Neural Message Passing for Quantum Chemistry. arXiv:1704.01212
Neural graph fingerprint (Duvenaud+ 2015), Molecular graph
convolutions (Kearns+ 2016), Gated graph sequence NN (Li+ 2016)
など任意サイズのグラフを⼊⼒にできるニューラルネット学習を抽象化
• Morgan Algorithm的操作に学習可能なパラメタを導⼊し抽象化した感じ
• 構成要素に何を使うのが良いか⾊々な組合せを調べ、検討した新規なvariantの
精度が最も良かったと報告
• ⼊⼒分⼦グラフのエッジ特徴に実数特徴を⼊れている(離散ラベルでない!)
/1917
Message Passing NN (Gilmer+ 2017)
For each vertex :
For each layer :
各頂点は隠れ状態(学習パラメタ)を持つ
頂点vからwへのメッセージを
vの近傍N(v)から集約
集約したメッセージを⽤いて
vの隠れ状態を更新
Compute a feature vector for
(Message Passing Phase)
(Readout Phase)
各頂点の最終的な隠れ状態を
統合して出⼒ベクトルを作る
/1917
Message Passing NN (Gilmer+ 2017)
For each vertex :
For each layer :
各頂点は隠れ状態(学習パラメタ)を持つ
頂点vからwへのメッセージを
vの近傍N(v)から集約
集約したメッセージを⽤いて
vの隠れ状態を更新
Compute a feature vector for
(Message Passing Phase)
(Readout Phase)
• M, U, Rを微分可能にしておけば、隠れ状態hをbackpropで学習できる
• Mにエッジ特徴→hの変換⾏列を学習するニューラルネットと学習⾏列による線形変換、
UにGated Reccurent Unit (Cho+, 2014)、Rにset2set (Vinyals+, 2015)、という
組合せが実験的精度はBestだった (set2seqな気もするが論⽂にはset2setとある…)
• Message Passingで近傍からのメッセージの和を取る点とReadoutが肝(この⼯夫で頂
点数が同⼀でなくてもOKになる)だがそれで良いのかはまだ検討の余地あり(?)
各頂点の最終的な隠れ状態を
統合して出⼒ベクトルを作る
/1918
最近の知⾒と課題
• Neural Message Passing, MPNNの論⽂はICML2017で発表
• MPNNの枠組のInstanceの検討においてGated Graph Sequence Neural
Networks, GGS-NN (Li+ ICLR2016)を⾮常に重視しているように⾒える
• GG-NNの発展⼿法として、Gated Graph Transformer Neural Network
GGT-NN (Johnson 2017)がICLR2017で発表
• QM9の予測に関しては、Continuous-filter convolutional layersというカ
スタム層に基づくSchNet (Schütt+ 2017)が提案されており上回る精度の
報告もある。K.-R. Müllerグループ+A. Tkatchenkoのjoint work.
• こうした⽅法では⼤規模データがあれば物性予測の精度を向上できること
が⽰唆されて来ているが、⼀⽅で、こうした緻密化が⽣物活性予測にも有
効かは未だにOpen Question。(ECFPよりもFCFPが良い場合もあるとか)
• 現時点では、分⼦グラフに載せる特徴のengineeringが肝になっており、
画像の畳み込みのケースほどは、end-to-endとは⾔えない。
/1919
本⽇の話
• 背景:有機低分⼦の活性・物性の予測モデリング
• 多数のグラフからの教師つき学習
• スパース線形学習(Takigawa+ 2017)
• 勾配ブースティングによる回帰森(Yokoyama+ Submitted)
• 部分構造指⽰⼦による0-1ブール変数に対する仮説空間
• 交互作⽤と線形 vs ⾮線形:Graph-XOR問題
• 低分⼦化合物のグラフエンコードと特徴量計算
• Molecular Graph, Invariants, Input Featurization
• Circular FingerprintとMorgan Algorithm
• 最近の話題: 量⼦化学計算近似・材料Informatics

Neural Message Passing (Google Brain/DeepMind/Basel-U)

Weitere ähnliche Inhalte

Was ist angesagt?

SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII
 
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)Yamato OKAMOTO
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)Shota Imai
 
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured PredictionDeep Learning JP
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門ryosuke-kojima
 
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点Taiji Suzuki
 
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph GenerationDeep Learning JP
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報Deep Learning JP
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題joisino
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic DatasetsDeep Learning JP
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)Kota Matsui
 
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual FeaturesARISE analytics
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
Graph Neural Networks
Graph Neural NetworksGraph Neural Networks
Graph Neural Networkstm1966
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用Yoshitaka Ushiku
 
確率モデルを用いた3D点群レジストレーション
確率モデルを用いた3D点群レジストレーション確率モデルを用いた3D点群レジストレーション
確率モデルを用いた3D点群レジストレーションKenta Tanaka
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイcvpaper. challenge
 

Was ist angesagt? (20)

SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
 
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
 
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
 
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
Graph Neural Networks
Graph Neural NetworksGraph Neural Networks
Graph Neural Networks
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
 
確率モデルを用いた3D点群レジストレーション
確率モデルを用いた3D点群レジストレーション確率モデルを用いた3D点群レジストレーション
確率モデルを用いた3D点群レジストレーション
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
 

Ähnlich wie グラフデータの機械学習における特徴表現の設計と学習

多数のグラフからの統計的機械学習 (2014.7.24 人工知能学会 第94回人工知能基本問題研究会 招待講演)
多数のグラフからの統計的機械学習 (2014.7.24 人工知能学会 第94回人工知能基本問題研究会 招待講演)多数のグラフからの統計的機械学習 (2014.7.24 人工知能学会 第94回人工知能基本問題研究会 招待講演)
多数のグラフからの統計的機械学習 (2014.7.24 人工知能学会 第94回人工知能基本問題研究会 招待講演)Ichigaku Takigawa
 
スペクトラルグラフ理論入門
スペクトラルグラフ理論入門スペクトラルグラフ理論入門
スペクトラルグラフ理論入門irrrrr
 
関東CV勉強会20140802(Face Alignment at 3000fps)
関東CV勉強会20140802(Face Alignment at 3000fps)関東CV勉強会20140802(Face Alignment at 3000fps)
関東CV勉強会20140802(Face Alignment at 3000fps)tackson5
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochiOhsawa Goodfellow
 
関数データ解析の概要とその方法
関数データ解析の概要とその方法関数データ解析の概要とその方法
関数データ解析の概要とその方法Hidetoshi Matsui
 
1997 情報処理学会論文誌-自然言語要求仕様からオブジェクト指向設計図を自動生成するシステム
1997 情報処理学会論文誌-自然言語要求仕様からオブジェクト指向設計図を自動生成するシステム1997 情報処理学会論文誌-自然言語要求仕様からオブジェクト指向設計図を自動生成するシステム
1997 情報処理学会論文誌-自然言語要求仕様からオブジェクト指向設計図を自動生成するシステムn-yuki
 
Scalaプログラミング・マニアックス
Scalaプログラミング・マニアックスScalaプログラミング・マニアックス
Scalaプログラミング・マニアックスTomoharu ASAMI
 
関数モデル 【クラウドアプリケーションのためのオブジェクト指向分析設計講座 第8回】
関数モデル 【クラウドアプリケーションのためのオブジェクト指向分析設計講座 第8回】関数モデル 【クラウドアプリケーションのためのオブジェクト指向分析設計講座 第8回】
関数モデル 【クラウドアプリケーションのためのオブジェクト指向分析設計講座 第8回】Tomoharu ASAMI
 

Ähnlich wie グラフデータの機械学習における特徴表現の設計と学習 (9)

多数のグラフからの統計的機械学習 (2014.7.24 人工知能学会 第94回人工知能基本問題研究会 招待講演)
多数のグラフからの統計的機械学習 (2014.7.24 人工知能学会 第94回人工知能基本問題研究会 招待講演)多数のグラフからの統計的機械学習 (2014.7.24 人工知能学会 第94回人工知能基本問題研究会 招待講演)
多数のグラフからの統計的機械学習 (2014.7.24 人工知能学会 第94回人工知能基本問題研究会 招待講演)
 
FPGAX2019
FPGAX2019FPGAX2019
FPGAX2019
 
スペクトラルグラフ理論入門
スペクトラルグラフ理論入門スペクトラルグラフ理論入門
スペクトラルグラフ理論入門
 
関東CV勉強会20140802(Face Alignment at 3000fps)
関東CV勉強会20140802(Face Alignment at 3000fps)関東CV勉強会20140802(Face Alignment at 3000fps)
関東CV勉強会20140802(Face Alignment at 3000fps)
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
 
関数データ解析の概要とその方法
関数データ解析の概要とその方法関数データ解析の概要とその方法
関数データ解析の概要とその方法
 
1997 情報処理学会論文誌-自然言語要求仕様からオブジェクト指向設計図を自動生成するシステム
1997 情報処理学会論文誌-自然言語要求仕様からオブジェクト指向設計図を自動生成するシステム1997 情報処理学会論文誌-自然言語要求仕様からオブジェクト指向設計図を自動生成するシステム
1997 情報処理学会論文誌-自然言語要求仕様からオブジェクト指向設計図を自動生成するシステム
 
Scalaプログラミング・マニアックス
Scalaプログラミング・マニアックスScalaプログラミング・マニアックス
Scalaプログラミング・マニアックス
 
関数モデル 【クラウドアプリケーションのためのオブジェクト指向分析設計講座 第8回】
関数モデル 【クラウドアプリケーションのためのオブジェクト指向分析設計講座 第8回】関数モデル 【クラウドアプリケーションのためのオブジェクト指向分析設計講座 第8回】
関数モデル 【クラウドアプリケーションのためのオブジェクト指向分析設計講座 第8回】
 

Mehr von Ichigaku Takigawa

データ社会を生きる技術
〜機械学習の夢と現実〜
データ社会を生きる技術
〜機械学習の夢と現実〜データ社会を生きる技術
〜機械学習の夢と現実〜
データ社会を生きる技術
〜機械学習の夢と現実〜Ichigaku Takigawa
 
機械学習を科学研究で使うとは?
機械学習を科学研究で使うとは?機械学習を科学研究で使うとは?
機械学習を科学研究で使うとは?Ichigaku Takigawa
 
A Modern Introduction to Decision Tree Ensembles
A Modern Introduction to Decision Tree EnsemblesA Modern Introduction to Decision Tree Ensembles
A Modern Introduction to Decision Tree EnsemblesIchigaku Takigawa
 
Exploring Practices in Machine Learning and Machine Discovery for Heterogeneo...
Exploring Practices in Machine Learning and Machine Discovery for Heterogeneo...Exploring Practices in Machine Learning and Machine Discovery for Heterogeneo...
Exploring Practices in Machine Learning and Machine Discovery for Heterogeneo...Ichigaku Takigawa
 
機械学習と機械発見:自然科学融合が誘起するデータ科学の新展開
機械学習と機械発見:自然科学融合が誘起するデータ科学の新展開機械学習と機械発見:自然科学融合が誘起するデータ科学の新展開
機械学習と機械発見:自然科学融合が誘起するデータ科学の新展開Ichigaku Takigawa
 
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考Ichigaku Takigawa
 
小1にルービックキューブを教えてみた 〜群論スポーツの教育とパターン認知〜
小1にルービックキューブを教えてみた 〜群論スポーツの教育とパターン認知〜小1にルービックキューブを教えてみた 〜群論スポーツの教育とパターン認知〜
小1にルービックキューブを教えてみた 〜群論スポーツの教育とパターン認知〜Ichigaku Takigawa
 
"データ化"する化学と情報技術・人工知能・データサイエンス
"データ化"する化学と情報技術・人工知能・データサイエンス"データ化"する化学と情報技術・人工知能・データサイエンス
"データ化"する化学と情報技術・人工知能・データサイエンスIchigaku Takigawa
 
自然科学における機械学習と機械発見
自然科学における機械学習と機械発見自然科学における機械学習と機械発見
自然科学における機械学習と機械発見Ichigaku Takigawa
 
幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro幾何と機械学習: A Short Intro
幾何と機械学習: A Short IntroIchigaku Takigawa
 
決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割
決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割
決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割Ichigaku Takigawa
 
Machine Learning for Molecules: Lessons and Challenges of Data-Centric Chemistry
Machine Learning for Molecules: Lessons and Challenges of Data-Centric ChemistryMachine Learning for Molecules: Lessons and Challenges of Data-Centric Chemistry
Machine Learning for Molecules: Lessons and Challenges of Data-Centric ChemistryIchigaku Takigawa
 
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいことIchigaku Takigawa
 
自己紹介:機械学習・機械発見とデータ中心的自然科学
自己紹介:機械学習・機械発見とデータ中心的自然科学自己紹介:機械学習・機械発見とデータ中心的自然科学
自己紹介:機械学習・機械発見とデータ中心的自然科学Ichigaku Takigawa
 
機械学習・機械発見から見るデータ中心型化学の野望と憂鬱
機械学習・機械発見から見るデータ中心型化学の野望と憂鬱機械学習・機械発見から見るデータ中心型化学の野望と憂鬱
機械学習・機械発見から見るデータ中心型化学の野望と憂鬱Ichigaku Takigawa
 
Machine Learning for Molecular Graph Representations and Geometries
Machine Learning for Molecular Graph Representations and GeometriesMachine Learning for Molecular Graph Representations and Geometries
Machine Learning for Molecular Graph Representations and GeometriesIchigaku Takigawa
 
(2021.11) 機械学習と機械発見:データ中心型の化学・材料科学の教訓とこれから
(2021.11) 機械学習と機械発見:データ中心型の化学・材料科学の教訓とこれから(2021.11) 機械学習と機械発見:データ中心型の化学・材料科学の教訓とこれから
(2021.11) 機械学習と機械発見:データ中心型の化学・材料科学の教訓とこれからIchigaku Takigawa
 
機械学習~データを予測に変える技術~で化学に挑む! (サイエンスアゴラ2021)
機械学習~データを予測に変える技術~で化学に挑む! (サイエンスアゴラ2021)機械学習~データを予測に変える技術~で化学に挑む! (サイエンスアゴラ2021)
機械学習~データを予測に変える技術~で化学に挑む! (サイエンスアゴラ2021)Ichigaku Takigawa
 
(2021.10) 機械学習と機械発見 データ中心型の化学・材料科学の教訓とこれから
(2021.10) 機械学習と機械発見 データ中心型の化学・材料科学の教訓とこれから (2021.10) 機械学習と機械発見 データ中心型の化学・材料科学の教訓とこれから
(2021.10) 機械学習と機械発見 データ中心型の化学・材料科学の教訓とこれから Ichigaku Takigawa
 

Mehr von Ichigaku Takigawa (20)

機械学習と自動微分
機械学習と自動微分機械学習と自動微分
機械学習と自動微分
 
データ社会を生きる技術
〜機械学習の夢と現実〜
データ社会を生きる技術
〜機械学習の夢と現実〜データ社会を生きる技術
〜機械学習の夢と現実〜
データ社会を生きる技術
〜機械学習の夢と現実〜
 
機械学習を科学研究で使うとは?
機械学習を科学研究で使うとは?機械学習を科学研究で使うとは?
機械学習を科学研究で使うとは?
 
A Modern Introduction to Decision Tree Ensembles
A Modern Introduction to Decision Tree EnsemblesA Modern Introduction to Decision Tree Ensembles
A Modern Introduction to Decision Tree Ensembles
 
Exploring Practices in Machine Learning and Machine Discovery for Heterogeneo...
Exploring Practices in Machine Learning and Machine Discovery for Heterogeneo...Exploring Practices in Machine Learning and Machine Discovery for Heterogeneo...
Exploring Practices in Machine Learning and Machine Discovery for Heterogeneo...
 
機械学習と機械発見:自然科学融合が誘起するデータ科学の新展開
機械学習と機械発見:自然科学融合が誘起するデータ科学の新展開機械学習と機械発見:自然科学融合が誘起するデータ科学の新展開
機械学習と機械発見:自然科学融合が誘起するデータ科学の新展開
 
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
 
小1にルービックキューブを教えてみた 〜群論スポーツの教育とパターン認知〜
小1にルービックキューブを教えてみた 〜群論スポーツの教育とパターン認知〜小1にルービックキューブを教えてみた 〜群論スポーツの教育とパターン認知〜
小1にルービックキューブを教えてみた 〜群論スポーツの教育とパターン認知〜
 
"データ化"する化学と情報技術・人工知能・データサイエンス
"データ化"する化学と情報技術・人工知能・データサイエンス"データ化"する化学と情報技術・人工知能・データサイエンス
"データ化"する化学と情報技術・人工知能・データサイエンス
 
自然科学における機械学習と機械発見
自然科学における機械学習と機械発見自然科学における機械学習と機械発見
自然科学における機械学習と機械発見
 
幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro
 
決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割
決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割
決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割
 
Machine Learning for Molecules: Lessons and Challenges of Data-Centric Chemistry
Machine Learning for Molecules: Lessons and Challenges of Data-Centric ChemistryMachine Learning for Molecules: Lessons and Challenges of Data-Centric Chemistry
Machine Learning for Molecules: Lessons and Challenges of Data-Centric Chemistry
 
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
 
自己紹介:機械学習・機械発見とデータ中心的自然科学
自己紹介:機械学習・機械発見とデータ中心的自然科学自己紹介:機械学習・機械発見とデータ中心的自然科学
自己紹介:機械学習・機械発見とデータ中心的自然科学
 
機械学習・機械発見から見るデータ中心型化学の野望と憂鬱
機械学習・機械発見から見るデータ中心型化学の野望と憂鬱機械学習・機械発見から見るデータ中心型化学の野望と憂鬱
機械学習・機械発見から見るデータ中心型化学の野望と憂鬱
 
Machine Learning for Molecular Graph Representations and Geometries
Machine Learning for Molecular Graph Representations and GeometriesMachine Learning for Molecular Graph Representations and Geometries
Machine Learning for Molecular Graph Representations and Geometries
 
(2021.11) 機械学習と機械発見:データ中心型の化学・材料科学の教訓とこれから
(2021.11) 機械学習と機械発見:データ中心型の化学・材料科学の教訓とこれから(2021.11) 機械学習と機械発見:データ中心型の化学・材料科学の教訓とこれから
(2021.11) 機械学習と機械発見:データ中心型の化学・材料科学の教訓とこれから
 
機械学習~データを予測に変える技術~で化学に挑む! (サイエンスアゴラ2021)
機械学習~データを予測に変える技術~で化学に挑む! (サイエンスアゴラ2021)機械学習~データを予測に変える技術~で化学に挑む! (サイエンスアゴラ2021)
機械学習~データを予測に変える技術~で化学に挑む! (サイエンスアゴラ2021)
 
(2021.10) 機械学習と機械発見 データ中心型の化学・材料科学の教訓とこれから
(2021.10) 機械学習と機械発見 データ中心型の化学・材料科学の教訓とこれから (2021.10) 機械学習と機械発見 データ中心型の化学・材料科学の教訓とこれから
(2021.10) 機械学習と機械発見 データ中心型の化学・材料科学の教訓とこれから
 

Kürzlich hochgeladen

論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptxsn679259
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsWSO2
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 

Kürzlich hochgeladen (10)

論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 

グラフデータの機械学習における特徴表現の設計と学習