SlideShare ist ein Scribd-Unternehmen logo
1 von 51
Downloaden Sie, um offline zu lesen
工学院大学 綱島 秀樹
@maguroIsland
Max-Sliced
Wasserstein Distance
and its use for GANs
Contents
⚫ GANは何故学習が不安定なのか?
⚫ GANの救世主Wasserstein Distance
⚫ Wasserstein GANにも弱点が!?
⚫ Max-Sliced Wasserstein Distance
2
Contents
⚫ GANは何故学習が不安定なのか?
3
GANは何故学習が不安定なのか?
4
⚫ 学習が不安定なことによる問題
 mode collapse
Discriminatorを騙せるmode(最頻値)にGeneratorが落っ
こちてしまい、その点以外を生成しなくなる
GANは何故学習が不安定なのか?
5
⚫ 学習が不安定なことによる問題
 mode collapse
Discriminatorを騙せるmode(最頻値)にGeneratorが落っ
こちてしまい、その点以外を生成しなくなる
[1] Toy ProblemでGANのmode collapseを可視化
おまけ
6
 mode missing
Generatorは入力ノイズに単峰のガウス分布を使っている
ので、繋がった分布を学んでしまう
→多峰のガウス分布を仮定することで直ったりする!
GANは何故学習が不安定なのか?
7
⚫ Discriminator(D)の学習が足りないとJensen Shannon
Divergence(JSD)が正確ではなく、Generator(G)が
誤ったJSDを最小化することに
⚫ 逆にDが学習しすぎると完全に真と偽を見抜き勾配消失
⚫ Gの最適値周りでも勾配消失(Dの勾配が定数になる)
⚫ データ分布と生成分布の重なりが無くなると勾配消失
⚫ 非飽和損失(non-saturate loss)※1を使ってみると?
これも勾配爆発を引き起こす
このように散々な有様である
※1 Gの更新の際のlog(1 − 𝐷(𝐺 𝒛 ))をlog(𝐷(𝐺 𝒛 ))にする損失
Contents
⚫ GANは何故学習が不安定なのか?
⚫ GANの救世主Wasserstein Distance
⚫ Wasserstein GANにも弱点が!?
⚫ Go Beyond Sliced Wasserstein Distance
8
Contents
⚫ GANの救世主Wasserstein Distance
9
Wasserstein GAN (WGAN)
10
⚫ ではどうやったら学習がうまくできるのか
 方策の1つとして目的関数の変更が挙げられる
(距離尺度をJSDから変更する)
Wasserstein Distance (WD)の登場
Wasserstein GAN (WGAN)
11
⚫ ではどうやったら学習がうまくできるのか
 方策の1つとして目的関数の変更が挙げられる
(距離尺度をJSDから変更する)
Wasserstein Distance (WD)の登場
⚫ WDを用いたGANの特徴
✓ Dをいくら学習しても勾配消失が起こらない
DはGを見抜く役割はせず、WDを正確に計算するだけ
✓ 生成物のクオリティが損失の減少に比例
損失を見るだけでいいモデルか悪いモデルか一目瞭然
✓ Mode Collapseが発生しない
最適化しきれていないDにGが過適合するのが原因
12
別名:Earth Mover Distance (EMD)
確率分布𝑃𝑟から𝑃θへの最適輸送距離がWD
(この図では離散の確率質量分布を考えている)
ちなみにWasserstein Distance(WD)って?
Contents
⚫ GANは何故学習が不安定なのか?
⚫ GANの救世主Wasserstein Distance
⚫ Wasserstein GANにも弱点が!?
⚫ Max-Sliced Wasserstein Distance
13
Contents
⚫ Wasserstein GANにも弱点が!?
14
Wasserstein GAN (WGAN)
15
もうWDだけでいいのでは!?
Wasserstein GAN (WGAN)
16
もうWDだけでいいのでは!?
⚫ 実はそんなことはなくWDも悪い点がいくつかある
 重みの値を特定の範囲(-0.01~0.01など)に収める必要
があるが(weight clipping)、重みが端の値に集中しがち
(訓練が壊れてしまう)
 次元の呪いの影響により高次元空間での分布の探索が困難
(これは通常のminimax-gameのGANも同じのはず)
 mode collapseを過剰に回避しすぎて生成画像が歪む
(次元の呪いとweight clippingの影響も受けている)
Wasserstein GAN (WGAN)
17
もうWDだけでいいのでは!?
⚫ 実はそんなことはなくWDも悪い点がいくつかある
 重みの値を特定の範囲(-0.01~0.01など)に収める必要
があるが(weight clipping)、重みが端の値に集中しがち
(訓練が壊れてしまう)
WGAN-GPでweight clippingが不要になったので解決
 次元の呪いの影響により高次元空間での分布の探索が困難
(これは通常のminimax-gameのGANも同じのはず)
こいつが癌
 mode collapseを過剰に回避しすぎて生成画像が歪む
(次元の呪いとweight clippingの影響も受けている)
Sliced Wasserstein GAN (SWGAN)
18
WGANは次元の呪いによってうまく学習が出来なかった
次元の呪いが発生する原因って?
次元が高いから発生する
19
バカにするな!
論理的思考
できなそう
Sliced Wasserstein GAN (SWGAN)
20
WGANは次元の呪いによってうまく学習が出来なかった
次元の呪いが発生する原因って?
次元が高いから発生する
次元を低くしてやればいいのでは!?
ちなみに次元の呪いは英語で
“The curse of dimensionality”
とても厨二心をくすぐられて好きです
Sliced Wasserstein GAN (SWGAN)
21
では次元を低くするためにはどうしたらよいか
低次元に射影してしまえばよいのでは!
でもどうやって?
Sliced Wasserstein GAN (SWGAN)
22
では次元を低くするためにはどうしたらよいか
低次元に射影してしまえばよいのでは!
でもどうやって?
1次元に写像!次元の呪いとは!
Sliced Wasserstein GAN (SWGAN)
23
では次元を低くするためにはどうしたらよいか
低次元に射影してしまえばよいのでは!
でもどうやって?
線(多次元では超平面)の
通ったエリアの和を算出
[2] Sliced Wasserstein Distance for Learning Gaussian Mixture Models (SlideShare)
Sliced Wasserstein GAN (SWGAN)
24
では次元を低くするためにはどうしたらよいか
低次元に射影してしまえばよいのでは!
でもどうやって?
線(多次元では超平面)の
通ったエリアの和を算出
Sliced Wasserstein GAN (SWGAN)
25
では次元を低くするためにはどうしたらよいか
低次元に射影してしまえばよいのでは!
でもどうやって?
線(多次元では超平面)の
通ったエリアの和を算出
Sliced Wasserstein GAN (SWGAN)
26
では次元を低くするためにはどうしたらよいか
低次元に射影してしまえばよいのでは!
でもどうやって?
線(多次元では超平面)の
通ったエリアの和を算出
Sliced Wasserstein GAN (SWGAN)
27
これが医療現場のCTで使われる技術のラドン変換
CTは体をぶった切って断面見ますよね
この向きの法線を持つ
各超平面に関してプロット
Sliced Wasserstein GAN (SWGAN)
28
このスライスしての写像を繰り返し、推定を行う
SWDをディープで使う場合にはNNで分布の推定を行う
様々な方向から射影
して1次元の分布を
フィッティングすること
でターゲットとなる分布
に近づく n次元分布ならn次元空間中
の様々な方向から1次元に
射影を行う
Sliced Wasserstein GAN (SWGAN)
29
⚫ SWDを使うことによって次元の呪いを回避!
⚫ こんだけ簡単にしてもWDの特性は保持しているので、
適切な尺度と成り得る
⚫ WDは1次元の場合閉形式(closed form)※が存在
Sliced Wasserstein GAN (SWGAN)
30
⚫ SWDを使うことによって次元の呪いを回避!
⚫ こんだけ簡単にしてもWDの特性は保持しているので、
適切な尺度と成り得る
⚫ WDは1次元の場合閉形式(closed form)※が存在
※ closed formとは関数が有限個の初等関数で表せる
e.g.)closed formの場合
𝑎𝑥2 + 𝑏𝑥 + 𝑐 = 0の解 𝑥 =
−𝑏± 𝑏2−4𝑎𝑐
2𝑎
はclosed form
closed formでない場合
σ𝑖=0
∞ 𝑥
2 𝑖は項が有限個ではないので、non-closed form
無限等比級数の和を求めると
𝑥
1−
1
2
= 2𝑥でclosed form
要はclosed formの場合計算可能!(解が一意に定まる)
Sliced Wasserstein GAN (SWGAN)
31
⚫ SWDを使うことによって次元の呪いを回避!
⚫ こんだけ簡単にしてもWDの特性は保持しているので、
適切な尺度と成り得る
⚫ WDは1次元の場合閉形式(closed form)が存在
次元の呪いに悩ませられなくなったので、画像に歪みが無い!
Sliced Wasserstein GAN (SWGAN)
32
もうSWDだけでいいのでは!?
Sliced Wasserstein GAN (SWGAN)
33
もうSWDだけでいいのでは!?
⚫ 実はSWDにも悪い点が存在。。。
収束がバカ遅い!
Contents
⚫ GANは何故学習が不安定なのか?
⚫ GANの救世主Wasserstein Distance
⚫ Wasserstein GANにも弱点が!?
⚫ Go Beyond Sliced Wasserstein Distance
34
Contents
⚫ Go Beyond Sliced Wasserstein Distance
35
Max-Sliced Wasserstein Distance
and its use for GANs (CVPR2019 Poster)
本日は分布間における距離尺度のお話
⚫ 著者
Ishan Deshpande, Yuan-Ting Hu, Ruoyu Sun, Ayis P
yrros† , Nasir Siddiqui† , Sanmi Koyejo, Zhizhen Z
hao, David Forsyth, Alexander Schwing
⚫ 所属
University of Illinois at Urbana-Champaign
†Dupage Medical Group
医療サービスを展開する企業
昨年のCVPR2018にてSWDをGMMに利用する非ディープ
な論文が出ており、その際SWDを用いるためにCT(医療)
に使われるラドン変換という技術が使われていた
スライスする場合は医療系から輸入がアツい...?
36
Max-SWGAN
37
⚫ SWDは何故収束が遅いのか?
ランダム方向からの射影というのが完全に非効率
ランダムがダメなら。。。?
意味ある方向から射影してやろう!
Max-SWGAN
38
⚫ 果たして意味ある方向とはどの方向?
(すみません、ここからは数式が登場せざるを得ないです)
d次元ガウス分布を考えた場合
ℙ 𝑑 = 𝒩(0, 𝐼):データ分布
ℙ 𝑔 = 𝒩(β Ƹ𝑒, 𝐼):Generatorの分布( Ƹ𝑒は単位ベクトル)
勾配降下法を使ってℙ 𝑔をℙ 𝑑に近づけたい
β → β − α∇β
෪𝑊2(ℙ 𝑑, ℙ 𝑔)
βは次の
ように更新
(1)
Max-SWGAN
39
⚫ 果たして意味ある方向とはどの方向?
(すみません、ここからは数式が登場せざるを得ないです)
d次元ガウス分布を考えた場合
ℙ 𝑑 = 𝒩(0, 𝐼):データ分布
ℙ 𝑔 = 𝒩(β Ƹ𝑒, 𝐼):Generatorの分布( Ƹ𝑒は単位ベクトル)
勾配降下法を使ってℙ 𝑔をℙ 𝑑に近づけたい
β → β − α∇β
෪𝑊2(ℙ 𝑑, ℙ 𝑔)
βは次の
ように更新 学習率α
(1)
Max-SWGAN
40
⚫ 果たして意味ある方向とはどの方向?
(すみません、ここからは数式が登場せざるを得ないです)
d次元ガウス分布を考えた場合
ℙ 𝑑 = 𝒩(0, 𝐼):データ分布
ℙ 𝑔 = 𝒩(β Ƹ𝑒, 𝐼):Generatorの分布( Ƹ𝑒は単位ベクトル)
勾配降下法を使ってℙ 𝑔をℙ 𝑑に近づけたい
β → β − α∇β
෪𝑊2(ℙ 𝑑, ℙ 𝑔)
βは次の
ように更新 学習率α
βについて偏微分
(1)
Max-SWGAN
41
⚫ 果たして意味ある方向とはどの方向?
(すみません、ここからは数式が登場せざるを得ないです)
d次元ガウス分布を考えた場合
ℙ 𝑑 = 𝒩(0, 𝐼):データ分布
ℙ 𝑔 = 𝒩(β Ƹ𝑒, 𝐼):Generatorの分布( Ƹ𝑒は単位ベクトル)
勾配降下法を使ってℙ 𝑔をℙ 𝑑に近づけたい
β → β − α∇β
෪𝑊2(ℙ 𝑑, ℙ 𝑔)
βは次の
ように更新 学習率α
βについて偏微分
ℙ 𝑔、ℙ 𝑑のSWDの平均
ここに着目
(1)
Max-SWGAN
42
d次元ガウス分布を考えた場合
ℙ 𝑑 = 𝒩(0, 𝐼):データ分布
ℙ 𝑔 = 𝒩(β Ƹ𝑒, 𝐼):Generatorの分布( Ƹ𝑒は単位ベクトル)
β → β − α∇β
෪𝑊2(ℙ 𝑑, ℙ 𝑔) (1)
Max-SWGAN
43
d次元ガウス分布を考えた場合
ℙ 𝑑 = 𝒩(0, 𝐼):データ分布
ℙ 𝑔 = 𝒩(β Ƹ𝑒, 𝐼):Generatorの分布( Ƹ𝑒は単位ベクトル)
β → β − α∇β
෪𝑊2(ℙ 𝑑, ℙ 𝑔)
෪𝑊2(ℙ 𝑑, ℙ 𝑔) =
1
෡Ω
෍
ω∈෡Ω
𝑊2 ℙ 𝑑
ω
, ℙ 𝑔
ω
(1)
(2)
ωは射影方向
෡Ωは総射影方向集合
Max-SWGAN
44
d次元ガウス分布を考えた場合
ℙ 𝑑 = 𝒩(0, 𝐼):データ分布
ℙ 𝑔 = 𝒩(β Ƹ𝑒, 𝐼):Generatorの分布( Ƹ𝑒は単位ベクトル)
β → β − α∇β
෪𝑊2(ℙ 𝑑, ℙ 𝑔)
෪𝑊2(ℙ 𝑑, ℙ 𝑔) =
1
෡Ω
෍
ω∈෡Ω
𝑊2 ℙ 𝑑
ω
, ℙ 𝑔
ω
𝑊2 ℙ 𝑑
ω
, ℙ 𝑔
ω
= β Ƹ𝑒 𝑇ω
(1)
(2)
(3)
ωは射影方向
෡Ωは総射影方向集合
Max-SWGAN
45
d次元ガウス分布を考えた場合
ℙ 𝑑 = 𝒩(0, 𝐼):データ分布
ℙ 𝑔 = 𝒩(β Ƹ𝑒, 𝐼):Generatorの分布( Ƹ𝑒は単位ベクトル)
β → β − α∇β
෪𝑊2(ℙ 𝑑, ℙ 𝑔)
෪𝑊2(ℙ 𝑑, ℙ 𝑔) =
1
෡Ω
෍
ω∈෡Ω
𝑊2 ℙ 𝑑
ω
, ℙ 𝑔
ω
𝑊2 ℙ 𝑑
ω
, ℙ 𝑔
ω
= β Ƹ𝑒 𝑇ω
(3)式を(2)式に、その(2)式を(1)式に代入してβで偏微分
(1)
(2)
(3)
射影方向に直交する
単位ベクトルを掛け
て絶対値を取る
要は距離になる
平均の差β
ωは射影方向
෡Ωは総射影方向集合
Max-SWGAN
46
d次元ガウス分布を考えた場合
ℙ 𝑑 = 𝒩(0, 𝐼):データ分布
ℙ 𝑔 = 𝒩(β Ƹ𝑒, 𝐼):Generatorの分布( Ƹ𝑒は単位ベクトル)
β → β − α
1
෡Ω
σω∈෡Ω Ƹ𝑒 𝑇
ω (4)
高次元空間になればなるほどランダムな
射影方向に対して平均ベクトルの転置は
直交しがちになりβの更新が遅くなる
こんなとこにも次元の呪いが!
Max-SWGAN
47
d次元ガウス分布を考えた場合
ℙ 𝑑 = 𝒩(0, 𝐼):データ分布
ℙ 𝑔 = 𝒩(β Ƹ𝑒, 𝐼):Generatorの分布( Ƹ𝑒は単位ベクトル)
β → β − α
1
෡Ω
σω∈෡Ω Ƹ𝑒 𝑇
ω
じゃあ射影方向と平均ベクトルが直交するようにすれば
βの更新は爆速になるのでは!?
(4)
高次元空間になればなるほどランダムな
射影方向に対して平均ベクトルの転置は
直交しがちになりβの更新が遅くなる
こんなとこにも次元の呪いが!
Max-SWGAN
48
次元が増えるにつれてSWDは収束が遅くなっているのに
対して、Max-SWDは常に爆速
Max-SWGAN
49
収束が速いし、SWDの良さを備えており、画像もSWD同等
余談
50
⚫ 証明は全てsupplementに任せると書いてあるのにsupp-
lemetがない!?
→メールを著者に出したのに返ってこない。。。
⚫ SWGANの論文はCVPR2019のポスターになっている
同年に改良論文出ているのはおもろすぎ
(SWGAN自体はarXivに2018年の始めに出ている)
⚫ Big Progressive Growing of Max-Sliced Wasserstein
GAN with Gradient Penaltyが最強!?w
(BigPGMax-SWGAN-GP)
⚫ WDじゃなくてvanillaのGANでスライスしたらどうなる
んでしょうか
51
Thank you for attention

Weitere ähnliche Inhalte

Was ist angesagt?

数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理Taiji Suzuki
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
多目的強凸最適化のパレート集合のトポロジー
多目的強凸最適化のパレート集合のトポロジー多目的強凸最適化のパレート集合のトポロジー
多目的強凸最適化のパレート集合のトポロジーKLab Inc. / Tech
 
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたいTakuji Tahara
 
Automatic Mixed Precision の紹介
Automatic Mixed Precision の紹介Automatic Mixed Precision の紹介
Automatic Mixed Precision の紹介Kuninobu SaSaki
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルohken
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process ModelsDeep Learning JP
 
深層学習の非常に簡単な説明
深層学習の非常に簡単な説明深層学習の非常に簡単な説明
深層学習の非常に簡単な説明Seiichi Uchida
 
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証Masaharu Kinoshita
 
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向SSII
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情Yuta Kikuchi
 
勾配降下法の 最適化アルゴリズム
勾配降下法の最適化アルゴリズム勾配降下法の最適化アルゴリズム
勾配降下法の 最適化アルゴリズムnishio
 
Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Kohta Ishikawa
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデルKei Nakagawa
 

Was ist angesagt? (20)

数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
多目的強凸最適化のパレート集合のトポロジー
多目的強凸最適化のパレート集合のトポロジー多目的強凸最適化のパレート集合のトポロジー
多目的強凸最適化のパレート集合のトポロジー
 
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
 
Automatic Mixed Precision の紹介
Automatic Mixed Precision の紹介Automatic Mixed Precision の紹介
Automatic Mixed Precision の紹介
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
 
深層学習の非常に簡単な説明
深層学習の非常に簡単な説明深層学習の非常に簡単な説明
深層学習の非常に簡単な説明
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証
 
AdaFace(CVPR2022)
AdaFace(CVPR2022)AdaFace(CVPR2022)
AdaFace(CVPR2022)
 
階層ベイズとWAIC
階層ベイズとWAIC階層ベイズとWAIC
階層ベイズとWAIC
 
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
勾配降下法の 最適化アルゴリズム
勾配降下法の最適化アルゴリズム勾配降下法の最適化アルゴリズム
勾配降下法の 最適化アルゴリズム
 
Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
 

Kürzlich hochgeladen

Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムsugiuralab
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略Ryo Sasaki
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 

Kürzlich hochgeladen (9)

Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 

Max-Sliced Wasserstein Distance and its use for GANs