SlideShare ist ein Scribd-Unternehmen logo
1 von 36
PyTorch, PixyzによるGenerative Query Networkの実装
1
松尾研B4 谷口尚平
自己紹介
• 名前:谷口尚平
• 所属:東京大学松尾研究室
• 学年:B4
• 研究領域
– 深層生成モデル(世界モデル)
– 強化学習のための状態表現学習
– マルチモーダル学習(言語・概念の創発)
• 今回は卒論に関連して進めていたGQNの
再現実装を共有させていただくため、参加
させていただきました。
2
アウトライン
1. Generative Query Networkとは
– 概要
– Variational Autoencoder
– DRAW
– GQNのアーキテクチャ的な工夫点
– (余談) メタ学習としてのGQN
2. 実装紹介
– Pixyzの紹介
– Representation Network
– Convolutional LSTM
– Generation Network
– その他
3
アウトライン
1. Generative Query Networkとは
– 概要
– Variational Autoencoder
– DRAW
– GQNのアーキテクチャ的な工夫点
– (余談) メタ学習としてのGQN
2. 実装紹介
– Pixyzの紹介
– Representation Network
– Convolutional LSTM
– Generation Network
– その他
4
概要
一言で言うと
ある視点からの観測が与えられたとき
に、別の視点からの観測を予測する深
層生成モデル
どうやって?
Conditional DRAWを用いています
DRAWとは?
VAEと自己回帰モデルの合わせ技のよ
うなものです
5
[DL輪読会]GQNと関連研究,世界モデルとの関係について
https://www.slideshare.net/DeepLearningJP2016/dlgqn-111725780
Variational Autoencoder
①入力から潜在変数 𝒛 への推論
② 𝒛 から入力の再構成(生成)
をニューラルネットでモデル化した深層生成モデル
尤度 𝑝 𝑥 を最大化したいが、直接は測れないので、
以下の変分下限を最大化するように学習する
E 𝑞(𝑧|𝑥) log
𝑝 𝑥 𝑧 𝑝 𝑧
𝑞 𝑧 𝑥
= E 𝑞(𝑧|𝑥) log 𝑝 𝑥 𝑧 − DKL[𝑞 𝑧 𝑥 ||𝑝 𝑧 ]
6
𝑧 𝑥𝑥 Generation
𝑝(𝑥|𝑧)
Inference
𝑞(𝑧|𝑥)
Variational Autoencoder
直感的な理解の仕方
1. 潜在変数 𝑧 を平均 0, 分散 1の正規分布からサンプリングしてニューラルネット
ワークに入れたら画像を生成するようにしたい
2. そこで中間表現を確率的な変数 𝒛 にしたAutoencoderを用意して、画像の再構
成を学習させることにする
– 再構成誤差はdecoder (generator) の出力をベルヌーイ分布の平均値と考え、その尤度を
計算する
– ただし、カラー画像の場合は分散を固定した正規分布として尤度を計算することが多い
(GQNもそう)
3. それだけだと 𝑧 になんの制約もないので、encoder (inference)が出力する 𝑧 が
平均 0, 分散 1に近づくようにKL項を用意して制約をかける
• 理論的には変分ベイズが背景にあるので、詳しく知りたい人は以下の元論文とレ
ビュー論文を読むことをオススメします
– Auto-Encoding Variational Bayes https://arxiv.org/abs/1312.6114
– Tutorial on Variational Autoencoders https://arxiv.org/abs/1606.05908
7
Conditional VAE
• 通常のVAEでは事前分布 𝑝(𝑧) を平均 0, 分散 1 で固定していたが、それをラベル 𝒚 で
条件付けた 𝒑(𝒛|𝒚) とし、ニューラルネットでモデル化することで、ラベルで条件付けた
生成を可能にしたもの
e.g. 1の数字が書かれたMNIST画像を生成するなど
• この場合、最大化したいのは条件付き尤度 𝒑 𝒙|𝒚 になるので、変分下限も以下のよう
に変わる
E 𝑞(𝑧|𝑥,𝑦) log
𝑝 𝑥 𝑧, 𝑦 𝑝 𝑧|𝑦
𝑞 𝑧 𝑥, 𝑦
= E 𝑞(𝑧|𝑥,𝑦) log 𝑝 𝑥 𝑧, 𝑦 − DKL[𝑞 𝑧 𝑥, 𝑦 ||𝑝 𝑧|𝑦 ]
8
𝑧, 𝑦 𝑥𝑥, 𝑦 Generation
𝑝(𝑥|𝑧, 𝑦)
Inference
𝑞(𝑧|𝑥, 𝑦)
Prior
𝑞(𝑧|𝑦) 𝑧
KL
Conditional VAE
基本的にはGQNもこれがベースです
条件付けるラベル (𝑦) が与えられた観測と生成する画像の視点になっただけ
– 与えられた観測 (context): M個の視点 𝑣𝑖
1..𝑀
と観測 𝑥𝑖
1..𝑀
のペア
– 生成する画像の視点 (query): 𝑣𝑖
𝑞
これらで条件付けて、queryに対応する観測画像 𝑥𝑖
𝑞
を生成する
つまり、GQNは 𝒑(𝒙 𝒒|𝒗 𝟏..𝑴, 𝒙 𝟏..𝑴, 𝒗 𝒒) をモデル化している
• 確率モデル的な枠組みはこれだけですが、GQNではアーキテクチャの面で
様々な工夫を行なっている
– DRAWもその1つ
9
DRAW
• Gregorらが提案したVAEと自己回帰モデルを組み合わせたモデル
• 確率モデル的にはVAEと同じ
• VAEにおける潜在変数 𝑧 への推論をRNNを用いて複数回に分けて自己回
帰的に行うことで、モデルの表現力を高めている
𝑞 𝑧 𝑥 =
𝑙=1
𝐿
𝑞𝑙(𝑧𝑙|𝑥, 𝑧<𝑙)
• 厳密にはDRAWを提案した論文では他にもAttentionを用いるなど様々な工
夫をしているが、一般的には VAEにおいて 𝑧 への推論を自己回帰的に行
う枠組みを総称してDRAWと呼ばれている(少なくともGQN系の論文ではそ
ういう扱い)
10
DRAW
変分下限
log 𝑝 𝑥 ≥ E 𝑞 𝑧 𝑥 log 𝑝 𝑥 𝑧 − DKL[𝑞 𝑧 𝑥 | 𝑝 𝑧
= E 𝑞 𝑧 𝑥 log 𝑝(𝑥|𝑧) − DKL[
𝑙=1
𝐿
𝑞𝑙 𝑧𝑙 𝑥, 𝑧<𝑙 ||
𝑙=1
𝐿
𝑝𝑙 𝑧𝑙 𝑧<𝑙 ]
= E 𝑞 𝑧 𝑥 log 𝑝 𝑥 𝑧 −
𝑙=1
𝐿
E 𝑞 𝑧<𝑙 𝑥 [DKL 𝑞𝑙 𝑧𝑙 𝑥, 𝑧<𝑙 𝑝𝑙 𝑧𝑙 𝑧<𝑙
≅ E 𝑞 𝑧 𝑥 log 𝑝 𝑥 𝑧 −
𝑙=1
𝐿
DKL[𝑞𝑙(𝑧𝑙|𝑥, 𝑧<𝑙)||𝑝𝑙(𝑧𝑙|𝑧<𝑙)]
• 分布の積のKLは各分布のKLの和でモンテカルロ近似できる
11
DRAW
アルゴリズム
for 𝑙 = 1 to 𝐿
Prior Distribution 𝑝𝑙 𝑧𝑙 𝑧<𝑙 = 𝜂 𝑝 𝑧𝑙 ℎ 𝑑
Encoder RNN ℎ 𝑒 = 𝑅𝑁𝑁 𝑒𝑛𝑐 𝑥, 𝑥𝑙, ℎ 𝑒, ℎ 𝑑
Posterior Sample 𝑧𝑙 ~ 𝑞𝑙 𝑧𝑙 𝑥, 𝑧<𝑙 = 𝜂 𝑞 𝑧𝑙 ℎ 𝑒
Decoder RNN ℎ 𝑑 = 𝑅𝑁𝑁 𝑑𝑒𝑐 𝑧𝑙, ℎ 𝑑
KL Divergence DKL[𝑞𝑙 𝑧𝑙 𝑥, 𝑧<𝑙 ||𝑝𝑙 𝑧𝑙|𝑧<𝑙 ]
Canvas 𝑥𝑙 = 𝑥𝑙 + 𝜂 𝑔
ℎ 𝑑
Likelihood 𝒩(𝑥| 𝑥 𝐿)
• RNNを通して自己回帰的に潜在変数 𝑧 を推論する
• 画像はそれぞれの 𝑧 から生成したものを重ね書きしていく
(絵を描くのに似ているのでDRAWという名前が付いている) 12
GQN
contextとqueryで条件付けたConditional DRAW
• これまでの内容を踏まえると、GQNの変分下限は以下のようになる
E 𝑞 𝑧 𝑥 𝑞, 𝑣1..𝑀, 𝑥1..𝑀, 𝑣 𝑞 log 𝑝 𝑥 𝑞
𝑧, 𝑣1..𝑀
, 𝑥1..𝑀
, 𝑣 𝑞
−
𝑙=1
𝐿
DKL[𝑞𝑙 𝑧𝑙 𝑥 𝑞
, 𝑣1..𝑀
, 𝑥1..𝑀
, 𝑣 𝑞
||𝜋𝑙(𝑧𝑙|𝑣1..𝑀
, 𝑥1..𝑀
, 𝑣 𝑞
)]
• さらにGQNではcontextを圧縮するrepresentation networkを用意して、𝑟 =
𝑘=1
𝑀
𝜓(𝑥 𝑘, 𝑣 𝑘) としているため、以下のように簡潔化できる
E 𝑞 𝑧 𝑥 𝑞, 𝑟, 𝑣 𝑞 log 𝑝 𝑥 𝑞
𝑧, 𝑟, 𝑣 𝑞
−
𝑙=1
𝐿
DKL[𝑞𝑙 𝑧𝑙 𝑥 𝑞
, 𝑟, 𝑣 𝑞
||𝜋𝑙(𝑧𝑙|𝑟, 𝑣 𝑞
)]
これがGQNの目的関数です
13
GQN
GQNのアルゴリズム
for 𝑙 = 1 to 𝐿
Prior Distribution 𝜋𝑙 𝑧𝑙 𝑧<𝑙 = 𝜂 𝜋 𝑧𝑙 ℎ 𝑑
Encoder RNN ℎ 𝑒 = 𝑅𝑁𝑁 𝑒𝑛𝑐 𝑥 𝑞, 𝑣 𝑞, 𝑟, 𝑢𝑙, ℎ 𝑒, ℎ 𝑑
Posterior Sample 𝑧𝑙 ~ 𝑞𝑙 𝑧𝑙 𝑥 𝑞, 𝑣 𝑞, 𝑟, 𝑧<𝑙 = 𝜂 𝑞 𝑧𝑙 ℎ 𝑒
Decoder RNN ℎ 𝑑 = 𝑅𝑁𝑁 𝑑𝑒𝑐 𝑣 𝑞, 𝑟, 𝑧𝑙, ℎ 𝑑
KL Divergence DKL[𝑞𝑙 𝑧𝑙 𝑥, 𝑧<𝑙 ||𝜋𝑙 𝑧𝑙|𝑧<𝑙 ]
Canvas 𝑢𝑙 = 𝑢𝑙 + Δ ℎ 𝑑
Likelihood 𝒩(𝑥 𝑞
|𝜂 𝑔
(𝑢 𝐿))
• 基本的にはDRAWに条件付ける変数 (𝑣 𝑞, 𝑟) が加わっただけ
• 最後に尤度をとる前にもう一度NNをかませているのが少し違うが、それ以外は
普通のConditional DRAW 14
アーキテクチャ的な工夫点
• Representation networkによって、context情報を圧縮して環境に関する事
前知識を決定論的な変数 𝑟 として学習させている
– Neural Processes (Garnelo et al., 2018) でも提案されている手法
𝑟𝑘 = 𝜓(𝑥 𝑘, 𝑣 𝑘)
𝑟 =
𝑘=1
𝑀
𝑟𝑘
– それぞれのcontext情報を合計している点が大きな特徴
– これはそれぞれのcontextが順序不変 (permutation invariant) であることを利用して
いる (e.g. 得られる観測は見る視点の順番が変わっても変わらない)
– もしこれをRNNにしてしまうと、後に得られた観測ほどcontextに大きな影響を与える
ことになってしまう
– ただし、合計することが最善なのかは議論の余地がある
15
(余談) メタ学習としてのGQN
GQNの問題設定は実はメタ学習と全く同じ
– 任意のデータセット(ここではシーン)が与えられた時に入力(視点)から出力(観測)
へ正しく写像できるように、すべてのデータセットで共有されるパラメータをメタ知識と
して学習させる
– GQNではrepresentation networkがメタ知識を学習するパラメータを保持している
• NNによるメタ学習の主なアプローチは以下の2通り
① メタ知識をパラメータの初期値として学習させる (MAML)
② メタ知識を学習するためのネットワークを別に用意する
– GQN (Neural Processes) は②に当たる
• permutation invariantな問題設定では、GQNのようなメタ学習的なアプロー
チが有効であることを示したのも大きな貢献(世の中には同じようなアプ
ローチで解ける問題がたくさん眠っているはず)
16
アウトライン
1. Generative Query Networkとは
– 概要
– Variational Autoencoder
– DRAW
– GQNのアーキテクチャ的な工夫点
– (余談) メタ学習としてのGQN
2. 実装紹介
– Pixyzの紹介
– Representation Network
– Convolutional LSTM
– Generation Network
– その他
17
過去のGQN実装
TensorFlow
https://github.com/ogroth/tf-gqn
– 一番早く上がった実装
– 死ぬほどわかりづらい
– どうすればこんなにわかりづらく書けるのかわからない
– ちゃんと動くっぽい
Chainer
https://github.com/musyoku/chainer-gqn
– musyokuさんの実装
– わかりやすい
– データセットを自作するコードも公開(さすがの実装力)
– 結果のクオリティが高い
PyTorch
https://github.com/wohlert/generative-query-network-pytorch
– めちゃくちゃわかりやすい
– 学習が全くうまくいっていない
→ PyTorchだけまともに動くものがない
18
Pixyz
弊研・鈴木雅大作のPyTorchベースの深層生成モデル用ライブラリ
• ネットワークを確率モデルで隠蔽する構造になっているため、尤度やKL
Divergenceなど、確率分布間の操作をネットワーク構造を意識することなく
実装できるため、コードの可読性が上がる。
• TensorFlow Probability (Edward) などはネットワークと確率モデルを並列に
扱っているため、深層生成モデル用としてはやや使いづらい
19
実装
• 今回はPyTorch, Pixyzの両方で実装しました。
• 基本的にはほぼ同じですが、両者を比較しながらPixyzの使い方も紹介して
いきたいと思います。
注:現在のPixyzはLoss APIが自己回帰モデルに対応していないため、現状では
Pixyzを使うメリットがあまりありません。近々、自己回帰に対応したバー
ジョンがリリースされるので、そのタイミングでPixyz版のアップデートを
行う予定です。
• 論文内では一部のハイパーパラメータに関する記述がなかったため、著者
のEslamiさんに確認をとりました。
(おそらく元のPyTorch実装が動かないのはここのハイパラが間違っている
から)
20
論文に記述のないハイパーパラメータ
• 基本的に変数の次元数に関する記述が全くないため著者に確認
– 潜在変数 𝑧 : batch_size x 3 x 16 x 16
– RNNの隠れ変数 𝑐, ℎ : batch_size x 128 x 16 x 16
– DRAWのcanvasとなる 𝑢 : batch_size x 128 x 64 x 64
– 潜在変数 z の次元数は学習に大きな影響を与えるようなので注意
(チャンネル数を大きくしすぎると全く学習が進みません)
• RNNへの入力のサイズを合わせるためのdown-sample, up-sampleのネット
ワーク
– すべてbias項なしの畳み込み or 逆畳み込みを1層用意し、サイズがRNNの隠れ変数
と同じになるようにする(channel数は変えない)
e.g. 画像は、kernel_size: 4x4, stride: 4x4, padding: 0 の畳み込みをしてから
RNNに入力する 21
dataset/convert2torch.py
• DeepMindが公開しているデータセット
https://github.com/deepmind/gqn-datasets
• 元データセットはTensorFlow用のものなので、PyTorch用に変換する
• Shepard-Metzlerは約1日で変換できました
• To do: マルチプロセス化
22
gqn_dataset.py
データローダ周りのスクリプト
sample_batch
– 1つのデータには1つのシーンに相当する画像と視点のペア群が入っているため、学
習時にはそこからcontextに使うものとqueryに使うものをランダムにサンプリングして
使用する
23
representation.py
Representation networkの実装
24
論文で提案されている3種類を実装
Poolが一番いいらしい
conv_lstm.py
Coreで使うConvolutional LSTMの実装
25
Core
EncoderRNN, DecoderRNNに当たる部分
26
入力のサイズを合わせてConvLSTMに入れる
Distributionクラス (Pixyz)
27
ネットワークを確率分布で隠蔽するクラス
ここでは正規分布なので、平均 (loc) と標準
偏差 (scale) を辞書形式で返す
初期化の際に、条件づける変数 (cond_var) と
変数 (var) をリストで渡す。
forwardの入力とcond_varを揃えることに注意
model.py
28
PyTorch Pixyz
*_coreが自己回帰の部分を担うConvolutional LSTM
Pixyzではeta_* の代わりにPriorなどのpixyz.distributionsクラスのインスタンスを立てる
model.py
29
Pixyzではネットワークを
確率モデルで隠蔽している
ため、q.sampleなどとする
だけで分布からのサンプリ
ングが可能で、コードが読
みやすくなる!
PyTorch Pixyz
train.py
30
負の変分下限をロス関数として学習する。
学習率と生成画像の分散のアニーリングはここで行
う。
TensorBoardXを用いてログを保存
train.py
オプション
• デフォルトでは、すべて論文通りの実装が動くようになっていますが、GPU
のメモリが多くない場合のために、train.pyに以下のオプションがあります
1. --layers
自己回帰のループ数 (default: 12)
8くらいでも十分な結果が得られます
2. --shared_core
自己回帰のループ間で同じRNNを使うかどうか (default: False)
これがパラメータをめちゃくちゃ増やしていますが、Trueでもほぼ同じ結果が得られます
(論文内でもFalseだと少しだけ結果が良くなると書いてある)
31
画像生成モデルの実装上の注意点
1. 最後の画像の出力を [0, 1] に抑える
– 初めて画像生成系の実装をするときにやりがちなミス
– 学習はできてるっぽいのに、生成画像に変なノイズが乗っているときは大抵これをし忘れて
いる
– モデルの出力は最後がsigmoid等になっていない限り [0, 1] になるとは限らないので、<0 or
>1 の部分を0, 1に書き換える必要がある
e.g. -0.1は実際に画像として表示させるときは0.9扱いになってしまうので、0に置き
換える
– PyTorchならtorch.clampでできる
2. 生成画像の分布を分散固定の正規分布にしている場合は分布の平均を出力
するようにする
– カラー画像の場合はだいたい該当する
– 分散は学習の対象ではないため、分布からサンプリングするとノイズが乗ってしまう
– Pixyzであれば、sampleではなく、sample_meanを使う
32
結果 (Shepard-Metzler)
33
GroundTruth Prediction
2週間ほど回し続けた結果(71.5万ステップ)
ほぼ見分けがつかないレベルで生成できるようになった
論文では200万ステップ回している(こちらのリソースでは1ヶ月くらいかかる…)
結果 (Mazes)
34
GroundTruth Prediction
学習時間約2日
得られた知見
• 論文通りの実験を行うにはマシンパワーが
相当必要
– TiTAN X (12GB)4枚でギリギリ乗るくらい
– 著者はK80 (24GB)4枚で実験したらしい
• 潜在変数 𝑧 の次元数を大きくしすぎると、
学習初期にKLを過剰に近づけるように学習
が進んでしまい、再構成が全く学習されな
い
– 表現力を高めるためにむやみに 𝑧 の次元を増
やすと逆効果
• 論文通りまでパラメータを増やさなくても学
習は十分できる
– 自己回帰のループを減らすなど
35
失敗するケース
zのチャンネル数64
自己回帰8回で1日回した結果
Link
PyTorch
https://github.com/iShohei220/torch-gqn
Pixyz
https://github.com/masa-su/pixyzoo/tree/master/GQN
36

Weitere ähnliche Inhalte

Was ist angesagt?

GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAGIRobots
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
 
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"Deep Learning JP
 
Variational AutoEncoder
Variational AutoEncoderVariational AutoEncoder
Variational AutoEncoderKazuki Nitta
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデルMasahiro Suzuki
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Modelscvpaper. challenge
 
[DL Hacks]Variational Approaches For Auto-Encoding Generative Adversarial Ne...
[DL Hacks]Variational Approaches For Auto-Encoding  Generative Adversarial Ne...[DL Hacks]Variational Approaches For Auto-Encoding  Generative Adversarial Ne...
[DL Hacks]Variational Approaches For Auto-Encoding Generative Adversarial Ne...Deep Learning JP
 
パンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoderパンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoderぱんいち すみもと
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and EditingDeep Learning JP
 
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展Deep Learning JP
 
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual FeaturesARISE analytics
 
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )Generative Models(メタサーベイ )
Generative Models(メタサーベイ )cvpaper. challenge
 
「世界モデル」と関連研究について
「世界モデル」と関連研究について「世界モデル」と関連研究について
「世界モデル」と関連研究についてMasahiro Suzuki
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 

Was ist angesagt? (20)

GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"
 
Variational AutoEncoder
Variational AutoEncoderVariational AutoEncoder
Variational AutoEncoder
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
 
[DL Hacks]Variational Approaches For Auto-Encoding Generative Adversarial Ne...
[DL Hacks]Variational Approaches For Auto-Encoding  Generative Adversarial Ne...[DL Hacks]Variational Approaches For Auto-Encoding  Generative Adversarial Ne...
[DL Hacks]Variational Approaches For Auto-Encoding Generative Adversarial Ne...
 
パンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoderパンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoder
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
 
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展
 
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
 
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )Generative Models(メタサーベイ )
Generative Models(メタサーベイ )
 
「世界モデル」と関連研究について
「世界モデル」と関連研究について「世界モデル」と関連研究について
「世界モデル」と関連研究について
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 

Ähnlich wie PyTorch, PixyzによるGenerative Query Networkの実装

畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向Yusuke Uchida
 
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...Deep Learning JP
 
論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learningKazuki Adachi
 
Rainbow: Combining Improvements in Deep Reinforcement Learning (AAAI2018 unde...
Rainbow: Combining Improvements in Deep Reinforcement Learning (AAAI2018 unde...Rainbow: Combining Improvements in Deep Reinforcement Learning (AAAI2018 unde...
Rainbow: Combining Improvements in Deep Reinforcement Learning (AAAI2018 unde...Toru Fujino
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説Preferred Networks
 
[DL輪読会] Learning Finite State Representations of Recurrent Policy Networks (I...
[DL輪読会] Learning Finite State Representations of Recurrent Policy Networks (I...[DL輪読会] Learning Finite State Representations of Recurrent Policy Networks (I...
[DL輪読会] Learning Finite State Representations of Recurrent Policy Networks (I...Deep Learning JP
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Seiya Tokui
 
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)Ohsawa Goodfellow
 
レトリバ勉強会資料:深層学習による自然言語処理2章
レトリバ勉強会資料:深層学習による自然言語処理2章レトリバ勉強会資料:深層学習による自然言語処理2章
レトリバ勉強会資料:深層学習による自然言語処理2章Hiroki Iida
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksShingo Horiuchi
 
attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介Masayoshi Kondo
 
【CVPR 2019】Second-order Attention Network for Single Image Super-Resolution
【CVPR 2019】Second-order Attention Network for Single Image Super-Resolution【CVPR 2019】Second-order Attention Network for Single Image Super-Resolution
【CVPR 2019】Second-order Attention Network for Single Image Super-Resolutioncvpaper. challenge
 
[DL輪読会]Differentiable Mapping Networks: Learning Structured Map Representatio...
[DL輪読会]Differentiable Mapping Networks: Learning Structured Map Representatio...[DL輪読会]Differentiable Mapping Networks: Learning Structured Map Representatio...
[DL輪読会]Differentiable Mapping Networks: Learning Structured Map Representatio...Deep Learning JP
 
2012-03-08 MSS研究会
2012-03-08 MSS研究会2012-03-08 MSS研究会
2012-03-08 MSS研究会Kimikazu Kato
 
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)Hiroki Nakahara
 
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...Deep Learning JP
 
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
NIPS2019  Amazon「think globally, act locally : a deep neural network approach...NIPS2019  Amazon「think globally, act locally : a deep neural network approach...
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...SaeruYamamuro
 
Res netと派生研究の紹介
Res netと派生研究の紹介Res netと派生研究の紹介
Res netと派生研究の紹介masataka nishimori
 
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...Deep Learning JP
 

Ähnlich wie PyTorch, PixyzによるGenerative Query Networkの実装 (20)

畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
 
Rainbow
RainbowRainbow
Rainbow
 
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
 
論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning
 
Rainbow: Combining Improvements in Deep Reinforcement Learning (AAAI2018 unde...
Rainbow: Combining Improvements in Deep Reinforcement Learning (AAAI2018 unde...Rainbow: Combining Improvements in Deep Reinforcement Learning (AAAI2018 unde...
Rainbow: Combining Improvements in Deep Reinforcement Learning (AAAI2018 unde...
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
 
[DL輪読会] Learning Finite State Representations of Recurrent Policy Networks (I...
[DL輪読会] Learning Finite State Representations of Recurrent Policy Networks (I...[DL輪読会] Learning Finite State Representations of Recurrent Policy Networks (I...
[DL輪読会] Learning Finite State Representations of Recurrent Policy Networks (I...
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
 
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
 
レトリバ勉強会資料:深層学習による自然言語処理2章
レトリバ勉強会資料:深層学習による自然言語処理2章レトリバ勉強会資料:深層学習による自然言語処理2章
レトリバ勉強会資料:深層学習による自然言語処理2章
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
 
attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介
 
【CVPR 2019】Second-order Attention Network for Single Image Super-Resolution
【CVPR 2019】Second-order Attention Network for Single Image Super-Resolution【CVPR 2019】Second-order Attention Network for Single Image Super-Resolution
【CVPR 2019】Second-order Attention Network for Single Image Super-Resolution
 
[DL輪読会]Differentiable Mapping Networks: Learning Structured Map Representatio...
[DL輪読会]Differentiable Mapping Networks: Learning Structured Map Representatio...[DL輪読会]Differentiable Mapping Networks: Learning Structured Map Representatio...
[DL輪読会]Differentiable Mapping Networks: Learning Structured Map Representatio...
 
2012-03-08 MSS研究会
2012-03-08 MSS研究会2012-03-08 MSS研究会
2012-03-08 MSS研究会
 
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
 
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
 
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
NIPS2019  Amazon「think globally, act locally : a deep neural network approach...NIPS2019  Amazon「think globally, act locally : a deep neural network approach...
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
 
Res netと派生研究の紹介
Res netと派生研究の紹介Res netと派生研究の紹介
Res netと派生研究の紹介
 
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
 

PyTorch, PixyzによるGenerative Query Networkの実装