16. 2019.12.14
Takuya KOUMURA
cycentum.com
P. 16
③ 順番に生成する
文章
van den Oord A, Kalchbrenner N,
Kavukcuoglu K (2016)
“Pixel Recurrent Neural Networks”. ICML.
etc.
画像
音
van den Oord A, Dieleman S,
Zen H, Simonyan K, et al.,
(2016) “WaveNet: A Generative
Model for Raw Audio” arXiv
Prepr.
etc.
23. 2019.12.14
Takuya KOUMURA
cycentum.com
P. 23
⑤ ノイズを変換する
文章
音
Luo Y-J, Agres K, Herremans D (2019) “Learning
Disentangled Representations of Timbre and Pitch for
Musical Instrument Sounds Using Gaussian Mixture
Variational Autoencoders”. Conference of the International
Society for Music Information Retrieval
etc.
画像
Radford A, Metz L, Chintala S (2016) “Unsupervised
Representation Learning with Deep Convolutional
Generative Adversarial Networks” ICLR.
etc.
32. 2019.12.14
Takuya KOUMURA
cycentum.com
P. 32
③ + ⑤ 順番に生成したデータを変換する
z ~ P(z) = P(z1)P(z2|z1)P(z3|z1z2) … P(zm|z1z2 … zm-1)
x = f(z)
Razavi A, Oord A van den,
Vinyals O (2019) “Generating
Diverse High-Fidelity Images
with VQ-VAE-2” ICLR.
画像
33. 2019.12.14
Takuya KOUMURA
cycentum.com
P. 33
方法
① 予め全て用意しておく →普通、「生成」とは呼ばない
② ランダムに生成し、後で選ぶ →時間がかかる
③ 順番に生成する
④ ちょっとずつ変形する
⑤ ノイズを変換する
あわせ技
② + ⑤ 正しいと判別されるようにノイズを変換する
③ + ⑤ 順番に生成したデータを変換する
どのくらい使われているのか?
(私が観測している範囲では)
34. 2019.12.14
Takuya KOUMURA
cycentum.com
P. 34
④ ちょっとずつ変形する
⚫ 昔々、深層学習ブームの初期の頃に提案される
⚫ 「② + ⑤ 」の台頭
⚫ 忘れ去られる
⚫ BERTを使ってみたかった
Vincent P (2011) “A connection between scorematching and
denoising autoencoders” Neural Comput.
Bengio Y, Yao L, Alain G, Vincent P (2013) “Generalized
denoising auto-encoders as generative models” NIPS.
Bengio Y, Thibodeau-Laufer E, Alain G, Yosinski J, Thibodeau-
Laufer É, Alain G, Yosinski J (2014) “Deep Generative
Stochastic Networks Trainable by Backprop” ICML.
正しいと判別されるように
ノイズを変換する
Karras T, Laine S, Aittala M, Hellsten J, Lehtinen J, Aila T
(2019) “Analyzing and Improving the Image Quality of
StyleGAN”.