Weitere ähnliche Inhalte Ähnlich wie 20190804_icml_kyoto (20) Mehr von Takayoshi Yamashita (8) 20190804_icml_kyoto4. 深層学習の判断根拠を解釈するには?
• 入力に対する感度を分析:SmoothGrad [Similkov+, arXiv’17]
• 様々な入力から出力の傾向を推定:LIME [Ribeiro+, KDD’16]
• 入力に対する着眼点(アテンション)をモデルに組み込む:
• Class Activation Mapping(CAM) [Zhou+, CVPR’16],
• GradCAM [Selvaraju+, arXiv’16]
• Residual Attention Network [Wang+, CVPR’17]
4
Qiita @icoxfog417 “ディープラーニングの判断根拠を理解する手法”
https://qiita.com/icoxfog417/items/8689f943fd1225e24358
SmoothGrad LIME CAM
5. Class Activation Mapping (CAM)
• CNNの推論において反応した領域をヒートマップとして可視化
• 畳み込み層のみで構築したCNN + Global Average Poolingを使用
55
Conv.1_1
Conv.1_2
Conv.2_1
Conv.2_2
Conv.3_1
Conv.3_2
Conv.3_3
Conv.4_1
Conv.4_2
Conv.4_3
Conv.5_1
Conv.5_2
Conv.5_3
Global average pooling
Output
…
Average
Average
Average
Feature map
w1 w2 w3× × ×+ + + ・・・ =
Class activation mapping
Attention map
…
…
…
Australian terrier
w1
w2
w3
B. Zhou, “Learning Deep Features for Discriminative Localization”, CVPR2016
8. Attention Branch Network
• GAPからAttention mapを生成するネットワーク
• Feature extractor:特徴マップを出力
• Attention Branch:Attention mapを生成
• Perception Branch:Attention mapを用いて最終的な推論結果を出力
Attention Branch
GAP
Res.
Attention
Block
Perception Branch
Output layer
Res.Block5
×
ΣAttention map
Inputimage
Feature Extractor
Conv.1
Res.Block2
Res.Block3
Res.Block4
学習誤差 𝐿 𝑎𝑙𝑙(𝐱) = 𝐸 𝑎𝑡𝑡(𝐱) + 𝐸 𝑝𝑒𝑟(𝐱)
𝐸 𝑝𝑒𝑟(𝐱)
𝐸 𝑎𝑡𝑡(𝐱)
Attention branchの学習誤差
(Softmax + Cross entropy)
Perception branchの学習誤差
(Softmax + Cross entropy)
8
H. Fukui, “Attention Branch Network: Learning of Attention Mechanism for Visual Explanation”, CVPR2019
9. …
特徴マップ@ResBlock4
Feature Extractor
conv.1〜Res.Block4
Attention Branch Networkの推論処理
Attention Branch
GAP
Res.
Attention
Block
Perception Branch
Feature Extractor
Attention map
• 特徴マップにAttention mapを乗算してPerception Branchで推論
• Perception Branchの出力を最終的な推論結果として使用
9
Input image
Attention map
…
×
Attention map
特徴マップ
Res.Block5
Classification
result
Output layer
Σ
H. Fukui, “Attention Branch Network: Learning of Attention Mechanism for Visual Explanation”, CVPR2019
11. ImageNetにおける認識精度比較
11
Panther
Attention mapの可視化結果
Gold fish Boston terrier
ネットワーク ResNet50 RsNet101 ResNet152
Attentionの有無 無し 有り 無し 有り 無し 有り
Top-1 error 24.1 23.1 22.5 21.8 22.2 21.4
Top-5 error 7.2 6.6 6.4 6.0 6.2 5.7
H. Fukui, “Attention Branch Network: Learning of Attention Mechanism for Visual Explanation”, CVPR2019
12. CIFAR100における認識精度比較
12
ネットワーク
ResNet110 DenseNet Wide ResNet ResNeXt
Attentionの有無 無し 有り 無し 有り 無し 有り 無し 有り
Top-1 error 24.1 22.5 22.5 21.6 18.9 18.1 18.3 17.7
→ResNetの派生ネットワークに対しても応用可能
H. Fukui, “Attention Branch Network: Learning of Attention Mechanism for Visual Explanation”, CVPR2019
13. ABNのマルチタスク(顔属性認識)への適用
• タスク毎にAttention branchを導入し,アテンションマップを生成
• Perception branchはタスク毎のアテンションを利用してスコアを出力
Attention Branch
GAP
GAP
GAP
Multi-task
Global Average Pooling
Res.
Attention
Block
Perception Branch
Output layer
(5_o_Clock_Shadow)
Res.Block
5
×
Attention
map
Output layer
(Arched_Eyebrows)
×
Attention
map
Output layer
(Young)
…
×
Attention
map
Res.Block
5
Res.Block
5
Sharing weight
Label
(40 attributes)
13
→タスク毎のPerception BranchにてAttention mapを用いて顔属性を認識
Conv.1
Res.Block2
Res.Block3
Res. Block 4
H. Fukui, “Attention Branch Network: Learning of Attention Mechanism for Visual Explanation”, CVPR2019
17. 自動運転と判断根拠の同時獲得
• 回帰推定に対応したAttention branchを導入してABNを構築
• 特徴マップに重み(カーネル)を畳み込んで連続値に変換
→Attention Branch, Regression Branchを回帰タスクとして学習
tanh
× Σ
特徴マップ 重みフィルタ
Weighted GAP
Value
回帰タスク
ステアリング:-1.0 ~ +1.0スロ
ットル:0 ~ 1.0
17
入力1:
RGB画像
(1フレーム)
車体速度入力2:
Conv.1
Conv.2
Conv.3
Conv.4
Conv.5
Attention Branch
GAP
Conv.6
Conv.7
Conv.8
Conv.9
Attention Branch
ΣAttention map
Regression Branch
×
Fc.6
Fc.7
Fc.8
Output
K. Mori, “Visual Explanation by Attention Branch Network for End-To-End Learning-Based Self-Driving", IV2019
20. アテンションの言語説明
減速シーンにおける結果
20
Steering : 0.04 0.02
Throttle : 0.05 -0.15
man on a red motorcycle.
Attention map
Dense captioning
キャプション選択入力画像
K. Mori, “Visual Explanation by Attention Branch Network for End-To-End Learning-Based Self-Driving", IV2019
21. マルチタスク〜強化学習+アテンション〜
• A3Cベースの深層強化学習にアテンションを導入
• Attention branch → 状態価値とアテンションマップを出力
• Perception branch → アテンションマップを利用して行動を出力
21
Policy
Value
Attention map
Attention branch
Feature
extractor
Perception branch
Global Network
…
…
Policy
ValueAttention branch
Feature
extractor
Perception branch
Environment 1
Environment n
Policy
ValueValue branch
Feature
extractor
Policy branch
Worker 1
Worker n
Asynchronous
…
Asynchronous
福井, “Attention機構を導入したA3Cの提案", ロボット学会, 2018
24. Bayesian Attention Branch Network
• 不確実性を考慮した ABN
• Bayesian Neural Network を ABN に導入
• 学習時および評価時に Dropout を使用
• Residual Block 3・4 に Dropoutを追加
• 評価時に MCDO(Monte Carlo DropOut) を適用
24
Attention
map
Feature extractor
Convolutionlayer1
Residual
Block2
Inputimage
Attention branch
Conv.
Conv.
Convolution
layers
Perception branch
Residual
Block4
+
Dropout
GAP
Conv.
Residual
Block3
+
Dropout
SoftmaxSoftmax
塚原, “不確実性の導入によるAttention Branch Network の信頼性向上,
MIRU2019
25. Bayesian Attention Branch Network
• 不確実性を考慮した ABN
• MCDO によるサンプリング
• 平均 :出力結果の推定
• エントロピー:不確実性の推定
• 不確実性の低い branch の出力結果を推論結果として採用
25
Output
Attention
map
Feature extractor
Convolutionlayer1
Residual
Block2
Inputimage
Attention branch
Conv.
Conv.
Convolution
layers
Perception branch
Residual
Block4
+
Dropout
GAP
Conv.
Residual
Block3
+
Dropout
Uncertainty
Sampling
Uncertainty
Sampling
SoftmaxSoftmax
塚原, “不確実性の導入によるAttention Branch Network の信頼性向上,
MIRU2019
29. 手動(人の知見)によるネットワークの調整
• 誤認識したテストサンプルをうまく認識できるようにしたい
• DNNのパラメータを手動で調整
• パラメータ数が多大なので,何をどのように変更すれば良いか
• AlexNet:約6,110万パラメータ
• VGG:約1.4億パラメータ
• ResNet152:約6,019万パラメータ
29
…
特徴マップ@ResBlock4
Feature Extractor
conv.1〜Res.Block4
Attention Branch
GAP
Res. Attention
Block
Perception Branch
Feature Extractor
Attention map
Input image
Attention map
…
×
Res.Block
Classification
result
Output layer
Σ
Attention mapを調整
M. Mitsuhara, “Embedding Human Knowledge in Deep Neural Network via Attention Map”, ArXiv, 2019
31. Attention mapの修正による誤認識率の削減
31
修正したサンプル数 1,000枚
Top-1 error [%] Top-5 error [%]
修正前 100.0 19.0
修正後 83.2 15.8
ImageNet Dataset(validation)の誤認識率の変化
-16.8%
‘ambulance’: 0.98ambulance ‘police van’: 0.84eft ‘eft’: 0.97‘bottlecap’: 0.99
入力画像 修正前 修正後修正前入力画像修正後
Attention mapの修正により認識結果の改善が可能
M. Mitsuhara, “Embedding Human Knowledge in Deep Neural Network via Attention Map”, ArXiv 1905.03540, 2019
37. 詳細画像識別における評価
• CUB-200-2010 Datasetによる評価
– 200種類の鳥画像を分類
• 学習サンプル数:3,000
• 評価サンプル数:3,033
37
CUB-200-2010 Dataset 修正したAttention map
M. Mitsuhara, “Embedding Human Knowledge in Deep Neural Network via Attention Map”, ArXiv 1905.03540, 2019
38. Model bubble Top-1 accuracy [%] Top-5 accuracy [%]
BoF [Deng+, CVPR’13] 〇 32.8 --
ResNet18 + ABN
×
32.38 57.27
ResNet34 + ABN 30.99 53.68
ResNet50 + ABN 31.68 57.01
Our (ResNet18 + ABN)
〇
36.00 62.41
Our (ResNet34 + ABN) 35.84 60.70
Our (ResNet50 + ABN) 36.93 63.14
認識精度の比較
38
ABNに提案手法を取り入れることで認識精度が向上
CUB-200-2010 Datasetの認識率の比較
M. Mitsuhara, “Embedding Human Knowledge in Deep Neural Network via Attention Map”, ArXiv 1905.03540, 2019
39. 提案手法とABNにおけるAttention mapの比較
39
入力画像 ABN 提案手法
yellow-breasted chat ‘hooded oriole’
0.29
‘yellow-breasted chat’
0.54
green violetear ‘ruby-throated hummingbird’
0.70
‘green violetear’
0.88
認識性能と視覚的説明性が向上
M. Mitsuhara, “Embedding Human Knowledge in Deep Neural Network via Attention Map”, ArXiv 1905.03540, 2019
40. 医用画像認識の評価
• INDIAN DIABETIC RETINOPATHY IMAGE DATASET(IDRiD) による評価
– 眼底画像による疾患のグレード識別を対象としたデータセット
– サンプル数:81
40
M. Mitsuhara, “Embedding Human Knowledge in Deep Neural Network via Attention Map”, ArXiv 1905.03540, 2019
45. ネットワークの蒸留
Knowledge Distillation (KD) [G. Hinton+, 2015]
45
Teacher
Student
𝑝2
Cross Entropy
Cross Entropy
𝑝1
label
pre-trained
Soft target
Hard target
Hard target + Soft targetで学習
南, “複数ネットワークの共同学習における知識転移グラフの自動最適化”, MIRU2019
52. 知識転移グラフ
52
南, “複数ネットワークの共同学習における知識転移グラフの自動最適化”, MIRU2019
𝑚3
𝑚1
𝑚2
𝐿 𝑦,1
𝐿 𝑦,2
𝐿 𝑦,3
𝐿1,2
𝐿1,3𝐿2,1
𝐿3,1
𝐿3,2
𝐿2,3
𝑦
𝑦
𝑦
53. 知識転移グラフ
– 補助ノードが評価対象ノードの学習をサポートする
53
教師ラベル
評価対象ノード
ResNet
補助ノード
ResNet
Wide ResNet
DenseNet
…
南, “複数ネットワークの共同学習における知識転移グラフの自動最適化”, MIRU2019
𝑚3
𝑚1
𝑚2
𝐿 𝑦,1
𝐿 𝑦,2
𝐿 𝑦,3
𝐿1,2
𝐿1,3𝐿2,1
𝐿3,1
𝐿3,2
𝐿2,3
𝑦
𝑦
𝑦
54. 知識転移グラフ
– 各エッジに異なる損失関数を定義
➢多様な学習方法を表現
54
損失関数
𝐿 = 𝐻(𝑝
𝑦
^ , 𝑝 𝑛)
𝐿 = 𝐾𝐿(𝑝 𝑛||𝑝 𝑚)
𝐿 = 0
…
南, “複数ネットワークの共同学習における知識転移グラフの自動最適化”, MIRU2019
𝑚3
𝑚1
𝑚2
𝐿 𝑦,1
𝐿 𝑦,2
𝐿 𝑦,3
𝐿1,2
𝐿1,3𝐿2,1
𝐿3,1
𝐿3,2
𝐿2,3
𝑦
𝑦
𝑦
55. – Knowledge Distillation (KD)
➢一方向の知識転移
知識転移グラフ
55
南, “複数ネットワークの共同学習における知識転移グラフの自動最適化”, MIRU2019
𝑚3
𝑚1
𝑚2
𝐿 𝑦,1
𝐿 𝑦,2
𝐿 𝑦,3
𝐿1,2
𝐿1,3𝐿2,1
𝐿3,1
𝐿3,2
𝐿2,3
𝑦
𝑦
𝑦
56. 知識転移グラフ
56
– Deep Mutual Learning (DML)
➢双方向の知識転移
南, “複数ネットワークの共同学習における知識転移グラフの自動最適化”, MIRU2019
𝑚3
𝑚1
𝑚2
𝐿 𝑦,1
𝐿 𝑦,2
𝐿 𝑦,3
𝐿1,2
𝐿1,3𝐿2,1
𝐿3,1
𝐿3,2
𝐿2,3
𝑦
𝑦
𝑦
57. 知識転移グラフ
– 損失関数の組み合わせを変える
➢ 新たな学習方法を表現可能
57
南, “複数ネットワークの共同学習における知識転移グラフの自動最適化”, MIRU2019
𝑚3
𝑚1
𝑚2
𝐿 𝑦,1
𝐿 𝑦,2
𝐿 𝑦,3
𝐿1,2
𝐿1,3𝐿2,1
𝐿3,1
𝐿3,2
𝐿2,3
𝑦
𝑦
𝑦
58. – ノード2からノード1への知識転移
𝐿
𝑦
^
,1
𝐿
𝑦
^
,2
𝐿1,2 𝐿3,1
𝐿3,2
𝐿2,3
𝑦
^
𝑦
^
𝑚1
𝑚2
𝐿2,1
損失関数
58
𝑚1𝑚2
Gate
KL div
Cutoff Gate
Linear Gate
Correct Gate
Through Gate
Loss
func
Forward
𝒑 𝒚2 𝒙) 𝒑 𝒚 𝟏 𝒙)
𝐿2,1(𝒑2, 𝒑1)
Hard target
or
Soft target
知識転移先
ノード
南, “複数ネットワークの共同学習における知識転移グラフの自動最適化”, MIRU2019
59. – ノード2からノード1への知識転移
𝐿
𝑦
^
,1
𝐿
𝑦
^
,2
𝐿1,2 𝐿3,1
𝐿3,2
𝐿2,3
𝑦
^
𝑦
^
𝑚1
𝑚2
𝐿2,1
損失関数
59
Gate
KL div
Cutoff Gate
Linear Gate
Correct Gate
Through Gate
Backprop
Detach
Loss
func
𝒑 𝒚2 𝒙) 𝒑 𝒚 𝟏 𝒙)
𝐿2,1(𝒑2, 𝒑1)
Hard target
or
Soft target
知識転移先
ノード
南, “複数ネットワークの共同学習における知識転移グラフの自動最適化”, MIRU2019
𝑚1𝑚2
Backward
60. – ノード2からノード1への知識転移
𝐿
𝑦
^
,1
𝐿
𝑦
^
,2
𝐿1,2 𝐿3,1
𝐿3,2
𝐿2,3
𝑦
^
𝑦
^
𝑚1
𝑚2
𝐿2,1
損失関数
60
Gate
KL div
Cutoff Gate
Linear Gate
Correct Gate
Through Gate
Forward
Hard target
or
Soft target
知識転移先
ノード
𝐿2,1(𝒑2, 𝒑1)
𝑚1
𝑚2
𝐿2,1
南, “複数ネットワークの共同学習における知識転移グラフの自動最適化”, MIRU2019
𝑚1𝑚2
61. 𝐿
𝑦
^
,1
𝐿
𝑦
^
,2
𝐿1,2 𝐿3,1
𝐿3,2
𝐿2,3
𝑦
^
𝑦
^
𝑚1
𝑚2
𝐿2,1
損失関数
– ノード2からノード1への知識転移
61
Gate
Cutoff Gate
Linear Gate
Correct Gate
Through Gate
Forward
Hard target
or
Soft target
知識転移先
ノード
𝐺 𝐷 𝐾𝐿 = 𝐷 𝐾𝐿
変更を加えない
𝐿2,1(𝒑2, 𝒑1)
𝑚1
𝑚2
𝐿2,1
南, “複数ネットワークの共同学習における知識転移グラフの自動最適化”, MIRU2019
𝑚1𝑚2
KL div
62. 𝐿
𝑦
^
,1
𝐿
𝑦
^
,2
𝐿1,2 𝐿3,1
𝐿3,2
𝐿2,3
𝑦
^
𝑦
^
𝑚1
𝑚2
𝐿2,1
𝑚1
𝑚2
𝐿2,1
損失関数
– ノード2からノード1への知識転移
62
Gate
Cutoff Gate
Linear Gate
Correct Gate
Through Gate
Forward
Hard target
or
Soft target
知識転移先
ノード
𝐺 𝐷 𝐾𝐿 = 0
常に0を出力する
(エッジを切断する)
𝐿2,1(𝒑2, 𝒑1)
南, “複数ネットワークの共同学習における知識転移グラフの自動最適化”, MIRU2019
𝑚1𝑚2
KL div
63. 𝐿
𝑦
^
,1
𝐿
𝑦
^
,2
𝐿1,2 𝐿3,1
𝐿3,2
𝐿2,3
𝑦
^
𝑦
^
𝑚1
𝑚2
𝐿2,1
𝑚1
𝑚2
𝐿2,1
損失関数
– ノード2からノード1への知識転移
63
Gate
Cutoff Gate
Linear Gate
Correct Gate
Through Gate
Forward
Hard target
or
Soft target
知識転移先
ノード
𝐺 𝐷 𝐾𝐿 =
𝑡
𝑡 𝑚𝑎𝑥
∙ 𝐷 𝐾𝐿
時間と共に出力が
大きくなる
𝐿2,1(𝒑2, 𝒑1)
南, “複数ネットワークの共同学習における知識転移グラフの自動最適化”, MIRU2019
𝑚1𝑚2
KL div
64. 𝐿
𝑦
^
,1
𝐿
𝑦
^
,2
𝐿1,2 𝐿3,1
𝐿3,2
𝐿2,3
𝑦
^
𝑦
^
𝑚1
𝑚2
𝐿2,1
𝑚1
𝑚2
𝐿2,1
損失関数
– ノード2からノード1への知識転移
64
Gate
Cutoff Gate
Linear Gate
Correct Gate
Through Gate
Forward
Hard target
or
Soft target
知識転移先
ノード
𝐺 𝐷 𝐾𝐿 = 𝛿
𝑦
^
, 𝑦 𝑚2
∙ 𝐷 𝐾𝐿
正解したサンプルの
情報のみを伝える
𝐿2,1(𝒑2, 𝒑1)
南, “複数ネットワークの共同学習における知識転移グラフの自動最適化”, MIRU2019
𝑚1𝑚2
KL div
65. 𝐿
𝑦
^
,1
𝐿
𝑦
^
,2
𝐿1,2 𝐿3,1
𝐿3,2
𝐿2,3
𝑦
^
𝑦
^
𝑚1
𝑚2
𝐿2,1
𝑚1
𝑚2
𝐿2,1
損失関数
– ノード2からノード1への知識転移
65
Gate
Cutoff Gate
Linear Gate
Correct Gate
Through Gate
Forward
Hard target
or
Soft target
知識転移先
ノード
𝐿2,1(𝒑2, 𝒑1)
南, “複数ネットワークの共同学習における知識転移グラフの自動最適化”, MIRU2019
𝑚1𝑚2
KL div
66. 知識転移グラフの最適化
ハイパーパラメータサーチで最適化
– 最適化手法:ASHA (Asynchronous Successive Halving Algorithm)
– パラメータ:Gate関数と補助ノード
66
𝑚3
𝑚1
𝑚2
𝐿
𝑦
^
,1
𝐿
𝑦
^
,2
𝐿
𝑦
^
,3
𝐿1,2
𝐿1,3𝐿2,1
𝐿3,1
𝐿3,2
𝐿2,3
𝑦
^
𝑦
^
𝑦
^
補助ノード
Gate関数
• ResNet32
• ResNet110
• WideResNet28-2
• Through Gate
• Cutoff Gate
• Linear Gate
• Correct Gate
評価対象ノード
• ResNet32
組み合わせ:1,179,648 通り(ノード数3の場合)
南, “複数ネットワークの共同学習における知識転移グラフの自動最適化”, MIRU2019
68. 最適化によって獲得された知識転移グラフ
– 評価対象ノード :73.73%
– Vanillaモデル :70.71%
68
始めはKDライクな学習、次第にKD+DMLな学習が行われる
蒸留
相互学習
教師ラベル
評価対象ノード
補助ノード
(pre-trained)
補助ノード
教師ラベル
南, “複数ネットワークの共同学習における知識転移グラフの自動最適化”, MIRU2019
70. 従来手法との比較
– データセット :CIFAR-100
– 学習ノード数 :4
– 最適化対象ノード :ResNet32
70
Method Accuracy 補助ノード
vanilla 70.71 -
KD 71.88 WideResNet28-2 (pre-trained)
DML 72.76 ResNet32
Ours 73.36 ResNet32
Ours 74.34 ResNet32, WideResNet28-2
南, “複数ネットワークの共同学習における知識転移グラフの自動最適化”, MIRU2019
71. 主要なデータセットによる評価
– 最適化対象ノード :ResNet32
71
ノード数 CIFAR10 CIFAR100 Tiny-ImageNet
vanilla 93.12 70.71 53.18
2 93.65 72.88 54.69
3 93.92 73.46 55.02
4 93.99 74.34 55.80
5 94.14 74.54 55.30
6 94.17 74.22 55.16
7 94.07 74.71 54.78
南, “複数ネットワークの共同学習における知識転移グラフの自動最適化”, MIRU2019
74. 教授
藤吉弘亘 Hironobu Fujiyoshi E-mail: fujiyoshi@isc.chubu.ac.jp
1997年 中部大学大学院博士後期課程修了, 1997年 米カーネギーメロン大学ロボット工学研究所Postdoctoral Fellow, 2000年 中部大学工学部情
報工学科講師, 2004年 中部大学准教授, 2005年 米カーネギーメロン大学ロボット工学研究所客員研究員(~2006年), 2010年 中部大学教授,
2014年名古屋大学客員教授.
計算機視覚,動画像処理,パターン認識・理解の研究に従事.
ロボカップ研究賞(2005年),情報処理学会論文誌CVIM優秀論文賞(2009年),情報処理学会山下記念研究賞(2009年),画像センシングシンポジ
ウム優秀学術賞(2010, 2013, 2014年) ,電子情報通信学会 情報・システムソサイエティ論文賞(2013年)他
准教授
山下隆義 Takayoshi Yamashita E-mail:takayoshi@isc.chubu.ac.jp
2002年 奈良先端科学技術大学院大学博士前期課程修了, 2002年 オムロン株式会社入社, 2009年 中部大学大学院博士後期課程修了(社会人ド
クター), 2014年 中部大学講師,2017年 中部大学准教授.
人の理解に向けた動画像処理,パターン認識・機械学習の研究に従事.
画像センシングシンポジウム高木賞(2009年),電子情報通信学会 情報・システムソサイエティ論文賞(2013年),電子情報通信学会PRMU研
究会研究奨励賞(2013年)受賞.
機械知覚&ロボティクス研究グループ
74
特任助教
平川 翼 Tsubasa Hirakawa E-mail:hirakawa@mprg.chubu.ac.jp
2013年 広島大学大学院博士課程前期終了,2014年 広島大学大学院博士課程後期入学,2017年 中部大学研究員 (~2019年),2017年 広島大
学大学院博士後期課程修了.2019年 中部大学特任助教.2014年 独立行政法人日本学術振興会特別研究員DC1.2014年 ESIEE Paris客員研
究員 (〜2015年).
コンピュータビジョン,パターン認識,医用画像処理の研究に従事.