2. 自己紹介
2014.4 博士(情報理工学)、東京大学
2014.4~2016.3 NTT CS研 研究員
2016.4~ 東京大学 講師 (原田・牛久研究室)
2016.9~ 産業技術総合研究所 協力研究員
2016.12~ 国立国語研究所 共同研究員
2018.4~ オムロンサイニックエックス株式会社
Principal Investigator
2019.1~ 株式会社Ridge-I CRO
[Ushiku+, ACMMM 2012]
[Ushiku+, ICCV 2015]
画像キャプション生成 主観的な感性表現を持つ
画像キャプション生成
動画の特定区間と
キャプションの相互検索
[Yamaguchi+, ICCV 2017]
A guy is skiing with no shirt on
and yellow snow pants.
A zebra standing in a field
with a tree in the dirty
background.
[Shin+, BMVC 2016]
A yellow train on the tracks
near a train station.
19. 疑似ラベルを用いたドメイン適応
1st: Training on MNIST → Add pseudo labels for easy samples
2nd~: Training on MNIST+α → Add more pseudo labels
eight
nine
Asymmetric Tri-training for Domain Adaptation
[Saito+, ICML 2017]
20. p1
p2
pt
S+Tl
Tl
S : source samples
Tl : pseudo-labeled target samples
Input
X
F1
F2
Ft
ŷ : Pseudo-label for target sample
y : Label for source sample
F
S+Tl
F1 ,F2 : Labeling networks
Ft : Target specific network
F : Shared network
非対称三叉学習
21. p1
p2
pt
S+Tl
Tl
S : source samples
Tl : pseudo-labeled target samples
Input
X
F1
F2
Ft
ŷ : Pseudo-label for target sample
y : Label for source sample
F
S+Tl
FはF1,F2,Ftからの誤差の
勾配それぞれで学習
非対称三叉学習
22. p1
p2
pt
S
S
S : source samples
Tl : pseudo-labeled target samples
Input
X
F1
F2
Ft
ŷ : Pseudo-label for target sample
y : Label for source sample
F
S
ソースドメインのデータで
各識別器を初期化
1. 初期学習
24. F1, F2 : ソース+疑似ラベル付きターゲット
Ft: 疑似ラベル付きターゲット
F : 全識別器からの誤差伝搬
p1
p2
pt
S+Tl
Tl
S : source samples
Tl : pseudo-labeled target samples
Input
X
F1
F2
Ft
ŷ : Pseudo-label for target sample
y : Label for source sample
F
S+Tl
3. 疑似ラベルを用いてターゲット学習
25. p1
p2
pt
S+Tl
Tl
S : source samples
Tl : pseudo-labeled target samples
Input
X
F1
F2
Ft
ŷ : Pseudo-label for target sample
y : Label for source sample
F
S+Tl
2.と3.を収束まで繰り返す!
3. 疑似ラベルを用いてターゲット学習
26. 目的関数
最終的な目的関数 l1 |WT
1W2 |+L1 +L2 + L3
W1
W2
p1
p2
pt
S+Tl
F1
F2
Ft
F
S+Tl
Tl
L1
L2
L3
CrossEntropy
F1とF2のパラメータが直交すると小さくなる
つまり、異なる振舞いをもつように仕向ける
27. 実験結果
• 数字データセット
– MNIST, SVHN, SYN DIGIT
• 道路標識データセット
– GTSRB, SYN SIGN
GTSRB SYN SIGNS
SYN DIGITSSVHN
MNISTMNIST-M
There are other deep learning libraries written in JavaScript, but the features of MILJS are the following two points; first, MILJS supports both learning and inference, while there are frameworks that support only inference using trained models. Secondly, if your device has GPUs, they can be utilized through MILJS.
In the paper in ICLR Workshop, even ResNet with 152 layer is trained, but today I would like to show you a light-weight demonstration using mnist.