SlideShare a Scribd company logo
Suche senden
Hochladen
Einloggen
Registrieren
【DL輪読会】Flow Matching for Generative Modeling
Melden
Deep Learning JP
Folgen
Deep Learning JP
19. May 2023
•
0 gefällt mir
•
1,610 views
1
von
16
【DL輪読会】Flow Matching for Generative Modeling
19. May 2023
•
0 gefällt mir
•
1,610 views
Jetzt herunterladen
Downloaden Sie, um offline zu lesen
Melden
Technologie
2023/5/19 Deep Learning JP http://deeplearning.jp/seminar-2/
Deep Learning JP
Folgen
Deep Learning JP
Recomendados
backbone としての timm 入門
Takuji Tahara
7K views
•
19 Folien
機械学習で泣かないためのコード設計
Takahiro Kubo
60.8K views
•
30 Folien
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
15.3K views
•
38 Folien
Data-Centric AIの紹介
Kazuyuki Miyazawa
3.7K views
•
39 Folien
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII
2.1K views
•
81 Folien
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
Deep Learning JP
3.6K views
•
52 Folien
Más contenido relacionado
Was ist angesagt?
【メタサーベイ】Neural Fields
cvpaper. challenge
2K views
•
46 Folien
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
6.8K views
•
54 Folien
【メタサーベイ】基盤モデル / Foundation Models
cvpaper. challenge
16.1K views
•
63 Folien
研究効率化Tips Ver.2
cvpaper. challenge
19.5K views
•
298 Folien
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
3.3K views
•
21 Folien
Layer Normalization@NIPS+読み会・関西
Keigo Nishida
23.4K views
•
44 Folien
Was ist angesagt?
(20)
【メタサーベイ】Neural Fields
cvpaper. challenge
•
2K views
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
•
6.8K views
【メタサーベイ】基盤モデル / Foundation Models
cvpaper. challenge
•
16.1K views
研究効率化Tips Ver.2
cvpaper. challenge
•
19.5K views
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
•
3.3K views
Layer Normalization@NIPS+読み会・関西
Keigo Nishida
•
23.4K views
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII
•
10.4K views
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
•
1.1K views
近年のHierarchical Vision Transformer
Yusuke Uchida
•
13.4K views
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
Kosuke Shinoda
•
1.4K views
[DL輪読会]Pay Attention to MLPs (gMLP)
Deep Learning JP
•
16.7K views
【DL輪読会】Reward Design with Language Models
Deep Learning JP
•
798 views
GAN(と強化学習との関係)
Masahiro Suzuki
•
82.1K views
cvpaper.challenge 研究効率化 Tips
cvpaper. challenge
•
20.9K views
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP
•
4.5K views
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
•
14.3K views
DQNからRainbowまで 〜深層強化学習の最新動向〜
Jun Okumura
•
86.5K views
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
Deep Learning JP
•
2.1K views
【DL輪読会】論文解説:Offline Reinforcement Learning as One Big Sequence Modeling Problem
Deep Learning JP
•
1.2K views
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
•
25.1K views
Similar a 【DL輪読会】Flow Matching for Generative Modeling
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
Deep Learning JP
1.5K views
•
38 Folien
Generating Better Search Engine Text Advertisements with Deep Reinforcement L...
harmonylab
4.2K views
•
26 Folien
Learning to summarize from human feedback
harmonylab
3.5K views
•
32 Folien
【DL輪読会】Transformers are Sample Efficient World Models
Deep Learning JP
913 views
•
21 Folien
Variational Template Machine for Data-to-Text Generation
harmonylab
3.5K views
•
43 Folien
ECCV2020 Oral論文 完全読破(1/2)
cvpaper. challenge
4.3K views
•
252 Folien
Similar a 【DL輪読会】Flow Matching for Generative Modeling
(20)
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
Deep Learning JP
•
1.5K views
Generating Better Search Engine Text Advertisements with Deep Reinforcement L...
harmonylab
•
4.2K views
Learning to summarize from human feedback
harmonylab
•
3.5K views
【DL輪読会】Transformers are Sample Efficient World Models
Deep Learning JP
•
913 views
Variational Template Machine for Data-to-Text Generation
harmonylab
•
3.5K views
ECCV2020 Oral論文 完全読破(1/2)
cvpaper. challenge
•
4.3K views
【2016.07】cvpaper.challenge2016
cvpaper. challenge
•
2.2K views
ディープラーニング最近の発展とビジネス応用への課題
Kenta Oono
•
18.3K views
効率的学習 / Efficient Training(メタサーベイ)
cvpaper. challenge
•
7.2K views
平成24年度社会知能情報学専攻修士論文中間発表会(予稿)
n-yuki
•
946 views
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
Deep Learning JP
•
1.5K views
cvpaper.challenge チームラボ講演
cvpaper. challenge
•
780 views
Pattern mining-scrum gatheringtokyo20130115
Hironori Washizaki
•
1.7K views
アジャイルマネジメントとは?
Kiro Harada
•
4.4K views
Deeplearning lt.pdf
Deep Learning JP
•
404 views
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...
Deep Learning JP
•
941 views
[DL輪読会]AdaShare: Learning What To Share For Efficient Deep Multi-Task Learning
Deep Learning JP
•
1.8K views
2011 splc-a scalable goal-oriented approach to software variability recovery
n-yuki
•
389 views
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
•
12.5K views
2019年12月16日開催「DevOpsの実践 - Terraform EnterpriseとBitbucketで実現するCI/CD」セッション1「Dev...
アトラシアン株式会社
•
222 views
Más de Deep Learning JP
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
144 views
•
28 Folien
【DL輪読会】事前学習用データセットについて
Deep Learning JP
193 views
•
20 Folien
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
146 views
•
26 Folien
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
194 views
•
30 Folien
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
457 views
•
15 Folien
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
896 views
•
29 Folien
Más de Deep Learning JP
(20)
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
•
144 views
【DL輪読会】事前学習用データセットについて
Deep Learning JP
•
193 views
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
•
146 views
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
•
194 views
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
•
457 views
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
•
896 views
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
•
259 views
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
•
189 views
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
•
564 views
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
•
407 views
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
•
373 views
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
•
338 views
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
•
599 views
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
•
690 views
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
•
297 views
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
Deep Learning JP
•
285 views
【DL輪読会】マルチモーダル 基盤モデル
Deep Learning JP
•
831 views
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
Deep Learning JP
•
448 views
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
Deep Learning JP
•
212 views
【DL輪読会】大量API・ツールの扱いに特化したLLM
Deep Learning JP
•
1.2K views
Último
磁石内臓イヤリングによる磁力変化を利用したジェスチャ識別
sugiuralab
90 views
•
1 Folie
PostgreSQLのバグとの付き合い方 ~バグの調査からコミュニティへの報告、修正パッチ投稿まで~(Open Source Conference 202...
NTT DATA Technology & Innovation
32 views
•
44 Folien
指側面を入力インタフェース化するリング型デバイス
sugiuralab
5 views
•
1 Folie
画像生成AIの問題点
iPride Co., Ltd.
127 views
•
9 Folien
拡散する画像生成.pdf
NTTDOCOMO-ServiceInnovation
226 views
•
38 Folien
遠征ドルヲタのための便利サイトを作ってみた
Kenta Fujimoto
91 views
•
24 Folien
Último
(13)
磁石内臓イヤリングによる磁力変化を利用したジェスチャ識別
sugiuralab
•
90 views
PostgreSQLのバグとの付き合い方 ~バグの調査からコミュニティへの報告、修正パッチ投稿まで~(Open Source Conference 202...
NTT DATA Technology & Innovation
•
32 views
指側面を入力インタフェース化するリング型デバイス
sugiuralab
•
5 views
画像生成AIの問題点
iPride Co., Ltd.
•
127 views
拡散する画像生成.pdf
NTTDOCOMO-ServiceInnovation
•
226 views
遠征ドルヲタのための便利サイトを作ってみた
Kenta Fujimoto
•
91 views
2023情報処理学会関西支部大会-G12.pdf
KoseiShimoda1
•
113 views
GraphQLはどんな時に使うか
Yutaka Tachibana
•
137 views
CatBoost on GPU のひみつ
Takuji Tahara
•
982 views
ヒアラブルデバイスにおける音漏れ信号を用いた空中ジェスチャ認識
sugiuralab
•
83 views
骨抜きアジャイルの骨を生み出す 〜私(スクラムマスター)のXP学習記録〜(XP祭り2023 発表資料)
NTT DATA Technology & Innovation
•
321 views
インフラチームとCCoEの関係.pptx
ssuser5c7ee4
•
72 views
MLOps Course Slides_JP(配布用).pdf
Yuya Yamamoto
•
245 views
【DL輪読会】Flow Matching for Generative Modeling
1.
DEEP LEARNING JP [DL
Papers] 論文紹介: Flow Matching for Generative Modeling Ryosuke Ohashi, bestat Inc. http://deeplearning.jp/
2.
書誌情報 2 - ICLR2023 spotlight論文 -
Diffusionモデルよりも効率良く訓練・サンプリングできるモデルを提案
3.
背景:Diffusionモデル 3 - 最近Diffusionモデルがめちゃ活躍している - 2D画像生成,動画生成,モーション生成,3Dモデル生成,… -
Diffusionモデルの良い点・悪い点 - 良い点:安定した訓練,高品質&多様性の高いサンプル生成 - 悪い点:訓練・サンプル生成に時間がかかる ⇒ 訓練・サンプル生成をもっと効率化できないか?
4.
Flow Matching 4 著者らはCNFを訓練する新しい方法「Flow Matching」を提案
5.
補足:CNF 5 CNF (Continuous Normalizing
Flow) [Chen et al. 2018] データ空間の可逆変換のなめらかな列{Φ_t}で,Φ_0=idかつ,Φ_1が事 前確率分布p_0からデータ確率分布p_1への変換を誘導するもののこと p_0 ※p1がΦ_1による確率密度の変数変 換公式に従い与えられる,ということ
6.
補足:CNF 6 実は,{Φ_t}を直接モデリングするより, その時間発展を記述するODEをモデリングしたほうが便利 v_t * Δt
“=” Φ_(t+Δt) - Φ_t - v_tは可逆じゃなくてよい,解Φ_tは自動的に可逆になる - 複雑な変換Φよりも差分vのほうがMLPでフィッティングしやすい(ResNet的な)
7.
Flow Matching 7 Flow Matchingでは,何らかのCNFを定めるu_tを,MLP
v_tにより近似 (推定)することを試みる
8.
Flow Matching 8 著者らは,データ分布qからのサンプルのみが与えられているとき,サンプル 毎の「条件付きベクトル場」の列を使ってCNFを構成&訓練できることを示 した: ①各データ x_1
に対し,次をみたす条件付き確率の列 を考える ②境界確率分布の列を考える 構成により,p_0 = p,p_1はqの良い近似になっている (σ << 1)
9.
Flow Matching 9 ③条件付き確率の列 を誘導する「条件付き」ベクトル場 を考える すると,次のベクトル場(が定めるODEの解)は,②の境界確率分布 の列を誘導する(論文中の定理1) ④u_tへのflow
matchingは,以下のconditional flow matchingと同 値(論文中の定理2)
10.
Flow Matching 10 条件付き確率の列がガウシアンで与えられている場合,条件付きベクトル場 の列も閉じた形で書くことができる: は次のような条件付きベクトル場から誘導される(論文中の定理3)
11.
具体例① 11 拡散条件付きベクトル場 (Diffusion Conditional
Vector Fields) とすると, 実はこれはODE版NCSN [Song et al. 2020]と同じCNFになっている ※ただし,Score MatchingではODEの係数の一部に現れるスコアのみをマッチングで求め,Flow MatchingではODEの係数そのものをマッチングで求める,という違いがある
12.
具体例② 12 最適輸送条件付きベクトル場 (OT Conditional
Vector Fields) とすると, このベクトル場は,最適輸送の理論でdisplacement interpolationと呼ば れる特別な変換になっているらしい
13.
実験結果 13 CIFAR-10,downsampled ImageNetの条件なし生成モデルの性能比較 Flow Matching
w/ OT CVFsにより, 既存研究より高品質なサンプルを半分以下のサンプリングステップ数で生成 できることを実験的に示した
14.
実験結果 14 DDPMよりもFIDスコアが順調に下がる
15.
実験結果 15 サンプリング効率もよい ※Flow Matchingでは,サンプリングはODEを数値的に解いて行う SDEを解くより数値誤差を押さえやすく効率が良くなるらしい
16.
まとめ・感想 16 まとめ - CNFの新しい訓練アルゴリズム「Flow Matching」を提案 -
Diffusionよりも効率的に訓練・サンプリングできるモデルを提案 感想 - Flow Matchingの定式化は幾何的にイメージしやすい点がいいと思った - 今後実際に何かに試してみたい
Hinweis der Redaktion
Beyond Reward Based End-to-End RL: Representation Learning and Dataset Optimization Perspective