177. ベイズ最適化によるパレートフロントの推定 i
[Zuluaga+ (2013)]
⼊⼒ の不確実性領域
⼊⼒ の不確実性
with the largest wt(x) is chosen as the next sample xt
to be evaluated. We refer to wt(xt) as wt.
Intuitively, this rule biases the sampling towards ex-
ploring, and thus improving the model for, the points
most likely to be Pareto-optimal.
f1(x)
f2(x)
d
(max(Rt(x)) +
d
(min(Rt(x)) +
d
wT + 2 2
d
d
Rt(x) of a point classified as Pareto-optimal
Rt(x) of a point classified as not-Pareto optimal
Rt(x) of an unclassified point
Sampled points classified as not-Pareto optimal
Next sample
Figure 2. Classification and sampling example for n = 2
and ‘ = 0.
Stopping criteria. The training process stops after,
say, T iterations when all points in E are classified,
i.e., when UT = ÿ. The prediction returned is P̂ = PT .
The selection of the parameter ‘ used in the classifica-
tion rule impacts both the accuracy and the sampling
cost T of the algorithm.
Theorem 1. Let ” œ (0, 1
—t = 2 log(n|E|fi2
t2
/(6”)), t
probability 1 ≠ ”.
To achieve a maximum hyper
sufficient to choose
‘ =
÷(n ≠
2nan
where a = maxxœE,1ÆiÆn{
—
In this case, the algorithm ter
iterations, where T is the sma
Û
T
C1—T “T
Ø
÷
Here, C1 = 8/ log(1 ≠ ‡≠2
),
type of kernel used.
This means that by specifying
ume error ÷, PAL can be con
rameter ‘ to stop when the tar
confidence 1≠”. Additionally,
number of iterations T requir
Later, in Corollary 2, we will
判別ルール:
となる が存在しない
となる が存在する
→ はパレート解(⻘領域)
→ はパレート解でない(灰領域)
M個の⽬的関数をM個の独⽴な
GPでモデル化して計算する
獲得関数
松井 (名古屋大) 機械学習による実験計画 107 / 145
187. 次元削減に基づくベイズ最適化 i
Definition 2 (有効次元 (effective dimensionality))
関数 f : Rd → R が有効次元 de( d) を持つ
:⇔ de 次元の線型部分空間 T が存在して, 任意の x⊤ ∈ T と任
意の直交補空間の元 x⊥ ∈ T ⊥ に対して
f(x) = f(x⊤ + x⊥) = f(x⊤)
が成り立つ
Theorem 3 (Wang+ (2013) Theorem 2)
• f : Rd → R : 有効次元が de の関数
• A ∈ Rd×d′
: 各要素が独立に N(0, 1) に従うランダム行列
このとき, 任意の x ∈ Rd に対して f(x) = f(Az) を満たすよ
うな z ∈ Rd′
が確率 1 で存在する (ここで, d′ ≥ de)
松井 (名古屋大) 機械学習による実験計画 117 / 145
188. 次元削減に基づくベイズ最適化 ii
A
A
A
x=Ay
Convex projection of Ay to
x
y
Embedding
D=2
d=1
y
x
• 目的関数 f には関数値の挙動を支配する方向と関数値に影
響を与えない方向がある
• 低次元空間で獲得関数の最適化を行い, ランダム行列 A で
元の次元に埋め込む (ランダム埋め込み) ことで探索のコ
ストを削減する
松井 (名古屋大) 機械学習による実験計画 118 / 145
206. 事例 iv : SiC モデリングの出力デザイン [Matsui+ (2020)]
9 次元入力の場合の実データ実験
単純リグレット min1≤i≤n L (xi) − minx∈X L(x) による比較
0 20 40 60 80 100
Number of observation
10−1
101
103
Simple
Regret
SiC simulation
EI
EI (ind)
PI
PI (ind)
LCB
LCB (ind)
MSE
random
出力ベクトルの成分間の類似度 (すなわち構造) を考慮した提
案法が最も早くリグレットを減少させることができている
松井 (名古屋大) 機械学習による実験計画 135 / 145
207. 事例 v : Si エピタキシャル成長プロセス最適化 [Osada+ (2020)]
目的
成長速度を最大にしつつ, その他の 5 つの評価項目を基準値
以下にするプロセス条件の組合せを見つける
松井 (名古屋大) 機械学習による実験計画 136 / 145
208. 事例 v : Si エピタキシャル成長プロセス最適化 [Osada+ (2020)]
Thickness uniformity Less than a threshold Low Available High
Uniformity of resistivity High Low
Large LPD ( 0.30 μm) Low Low
Small LPD ( 0.136 μm) Low Low
Accumulation of slip length High High
Error A No error Zero Unavailable High
Error B *No error Zero High
meter is less than a threshold.
t of BO process in this study. SQCBO: single quality constraint Bayesian optimization; MQCBO: multiple quality constraint Bayesian optimization.
制約付きベイズ最適化
+
バッチベイズ最適化
成⻑速度以外の5つの項⽬が
基準値以下であることを要請
異なる条件での複数の実験を
連続して⾏い, 複数の試料を
⼀度に評価
Procedure 1:
単⼀のパラメータのみを更新するBO
(短時間で実⾏可能)
⽤いたベイズ最適化のフレームワーク
Procedure 2:
全パラメータを更新するBO
(実⾏に時間を要する)
Procedure 3 :
プロセスエンジニアによる条件の
絞り込み
→ BOによって挙げられた候補条件を
基にPEの知識を⽣かして特定のパラ
メータに対して条件探索を⾏う
提案法のフローチャート
松井 (名古屋大) 機械学習による実験計画 137 / 145
209. 事例 v : Si エピタキシャル成長プロセス最適化 [Osada+ (2020)]
松井 (名古屋大) 機械学習による実験計画 138 / 145
214. References
[1] James S Bergstra, Rémi Bardenet, Yoshua Bengio, and Balázs Kégl. Algorithms for hyper-parameter
optimization. NeurIPS, 2011.
[2] J Bernardo, MJ Bayarri, JO Berger, AP Dawid, D Heckerman, AFM Smith, and M West. Optimization under
unknown constraints. Bayesian Statistics, 9(9):229, 2011.
[3] David Eriksson, Michael Pearce, Jacob Gardner, Ryan D Turner, and Matthias Poloczek. Scalable global
optimization via local bayesian optimization. NeurIPS, 2019.
[4] Jacob R Gardner, Matt J Kusner, Zhixiang Eddie Xu, Kilian Q Weinberger, and John P Cunningham. Bayesian
optimization with inequality constraints. ICML, 2014.
[5] Alkis Gotovos, Nathalie Casati, Gregory Hitz, and Andreas Krause. Active learning for level set estimation. In
IJCAI, pages 1344–1350, 2013.
[6] Robert B Gramacy, Genetha A Gray, Sébastien Le Digabel, Herbert KH Lee, Pritam Ranjan, Garth Wells, and
Stefan M Wild. Modeling an augmented lagrangian for blackbox constrained optimization. Technometrics,
58(1):1–11, 2016.
[7] Daniel Hernández-Lobato, Jose Hernandez-Lobato, Amar Shah, and Ryan Adams. Predictive entropy search for
multi-objective bayesian optimization. 2016.
[8] José Miguel Hernández-Lobato, Michael Gelbart, Matthew Hoffman, Ryan Adams, and Zoubin Ghahramani.
Predictive entropy search for bayesian optimization with unknown constraints. ICML, 2015.
[9] José Miguel Hernández-Lobato, Michael A Gelbart, Ryan P Adams, Matthew W Hoffman, and Zoubin
Ghahramani. A general framework for constrained bayesian optimization using information-based search.
The Journal of Machine Learning Research, 17(1):5549–5601, 2016.
[10] José Miguel Hernández-Lobato, Matthew W Hoffman, and Zoubin Ghahramani. Predictive entropy search for
efficient global optimization of black-box functions. NeurIPS, 2014.
松井 (名古屋大) 機械学習による実験計画 143 / 145
215. [11] José Miguel Hernández-Lobato, James Requeima, Edward O Pyzer-Knapp, and Alán Aspuru-Guzik. Parallel and
distributed thompson sampling for large-scale accelerated exploration of chemical space. ICML, 2020.
[12] Kenta Kanamori, Kazuaki Toyoura, Junya Honda, Kazuki Hattori, Atsuto Seko, Masayuki Karasuyama, Kazuki
Shitara, Motoki Shiga, Akihide Kuwabara, and Ichiro Takeuchi. Exploring a potential energy surface by machine
learning for characterizing atomic transport. Physical Review B, 97(12):125124, 2018.
[13] Kirthevasan Kandasamy, Jeff Schneider, and Barnabás Póczos. High dimensional bayesian optimisation and
bandits via additive models. ICML, 2015.
[14] Johannes Kirschner, Mojmir Mutny, Nicole Hiller, Rasmus Ischebeck, and Andreas Krause. Adaptive and safe
bayesian optimization in high dimensions via one-dimensional subspaces. ICML, 2019.
[15] Kota Matsui, Shunya Kusakawa, Keisuke Ando, Kentaro Kutsukake, Toru Ujihara, and Ichiro Takeuchi. Bayesian
active learning for structured output design. arXiv preprint arXiv:1911.03671, 2019.
[16] Keiichi Osada, Kentaro Kutsukake, Jun Yamamoto, Shigeo Yamashita, Takashi Kodera, Yuta Nagai, Tomoyuki
Horikawa, Kota Matsui, Ichiro Takeuchi, and Toru Ujihara. Adaptive bayesian optimization for epitaxial growth
of si thin films under various constraints. Materials Today Communications, 25:101538, 2020.
[17] Carl Edward Rasmussen and Christopher KI Williams. Gaussian process for machine learning. MIT press, 2006.
[18] Bobak Shahriari, Kevin Swersky, Ziyu Wang, Ryan P Adams, and Nando De Freitas. Taking the human out of the
loop: A review of bayesian optimization. Proceedings of the IEEE, 104(1):148–175, 2016.
[19] Jasper Snoek, Hugo Larochelle, and Ryan P Adams. Practical bayesian optimization of machine learning
algorithms. NeurIPS, 2012.
[20] Jasper Roland Snoek. Bayesian optimization and semiparametric models with applications to assistive
technology. PhD thesis, Citeseer, 2013.
[21] Shinya Suzuki, Shion Takeno, Tomoyuki Tamura, Kazuki Shitara, and Masayuki Karasuyama. Multi-objective
bayesian optimization using pareto-frontier entropy. ICML, 2020.
[22] Kazuaki Toyoura, Daisuke Hirano, Atsuto Seko, Motoki Shiga, Akihide Kuwabara, Masayuki Karasuyama, Kazuki
Shitara, and Ichiro Takeuchi. Machine-learning-based selective sampling procedure for identifying the
low-energy region in a potential energy surface: A case study on proton conduction in oxides. Physical Review
B, 93(5):054112, 2016.
松井 (名古屋大) 機械学習による実験計画 144 / 145
216. [23] Zi Wang and Stefanie Jegelka. Max-value entropy search for efficient bayesian optimization. ICML, 2017.
[24] Ziyu Wang, Masrour Zoghi, Frank Hutter, David Matheson, and Nando De Freitas. Bayesian optimization in high
dimensions via random embeddings. IJCAI, 2013.
[25] Marcela Zuluaga, Guillaume Sergent, Andreas Krause, and Markus Püschel. Active learning for multi-objective
optimization. International Conference on Machine Learning, 2013.
[26] 持橋大地, 大羽成征. ガウス過程と機械学習. 講談社, 2019.
[27] 須山敦志. ベイズ推論による機械学習入門. 講談社, 2017.
[28] 穂積祥太, 松井孝太, 沓掛健太朗, 宇治原徹, 竹内一郎. Level set estimation を用いた太陽電池用シリコンのレッ
ドゾーンの効率的推定. In 第 33 回人工知能学会 (JSAI) 全国大会, 2019.
松井 (名古屋大) 機械学習による実験計画 145 / 145