SlideShare ist ein Scribd-Unternehmen logo
1 von 31
Downloaden Sie, um offline zu lesen
深層リカレントニューラルネットワーク
を用いた日本語述語項構造解析
大内 啓樹 進藤 裕之 松本 裕治
ouchi.hiroki.nt6@is.naist.jp
奈良先端科学技術大学院大学 自然言語処理学研究室
2016/12/22 (木)
情報処理学会 第229回 自然言語処理研究会
本研究の概要
2
単語分割
品詞付与
係り受け
述語項構造
入力文
既存研究
×深層RNN
日本語
述語項構造解析
複数の述語を考慮
可能なRNNの提案
入力文
本研究
78.15
80.90
79.23
81.22
IM09 MA14 OU15 DRGM
単語などの
表層情報のみ使用
最先端の解析器を
上回る性能を達成
単語分割
述語項構造
述語項構造とは?
3
「誰が 何を 誰に どうした」
• 花子は太郎を殴った。
• 太郎は花子に殴られた。
殴る
ガ 花子
ヲ 太郎
ニ None
述語項構造は表層の違いを正規化する
述語 出来事や状態を表す語や句
項 出来事や状態を表すのに必要な語や句
格 述語項間の意味的役割
項の種類
4
コロッケを受け取った彼女は、急いで食べた。
(φが)ジュースも飲んだ。
ガヲ ガ
ヲ
ヲ
ガ
• 係り受け有 精度: 85-90%
• 文内ゼロ 精度: 30-55%
• 文間ゼロ 精度: 10-20%
3種類の項
本研究の
解析対象
関連研究
日本語述語項構造解析手法
6
Taira+ 08 SVM + Decision List
Maximum Entropy Model
Tournament Model
Markov Logic Network
点推定アプローチ
同時推定アプローチ
Graph-Based Joint Model + Hill Climbing
Imamura+ 09
Hayashibe+ 11
Yoshikawa+ 11
Sasano+ 11
Ouchi+ 15
Shibata+ 16 Ouchi + Neural Net
Iida+ 16 Convolutional Neural Net
Log-Linear Model + Case Frames
点推定アプローチ
7
Imamura+ 09 述語ごとに独立に項を推定
警察は 犯人を 逮捕したが、 数日後に 逃走した。
ガ格
逮捕する
警察
犯人
数日後
2.8
3.9
1.3
NULL0.6
ガ格
逃走する
警察
犯人
数日後
2.9
2.6
0.7
NULL0.5
同時推定アプローチ
8
警察
犯人
数日後
逮捕する
逃走する
NULL
逮捕する
逃走する
ガ 警察
ヲ 犯人
ニ NULL
ガ 犯人
ヲ NULL
ニ NULL ガ ヲ ニ
Ouchi+ 15 文内の全述語項を同時に推定
点推定と同時推定
9
警察
犯人
数日後
逮捕する
逃走する
NULL
警察
犯人
数日後
逮捕する
NULL
警察
犯人
数日後
逮捕する
NULL
警察
犯人
数日後
逮捕する
NULL
警察
犯人
数日後
逃走する
NULL
警察
犯人
数日後
逃走する
NULL
警察
犯人
数日後
逃走する
NULL
点推定 同時推定
深層リカレントモデル
問題設定
11
<単語> 彼女 は コロッケ を 食べた 。
<ラベル> GA NONE WO NONE PRED NONE
• 各単語にラベルを付与する多値分類問題
• ラベルは {GA, WO, NI, NONE, PRED} の5つ
モデルの概要
12
• RNN (GRU) を使用
• 単語素性がスパースになることを防ぐため
• 長距離の依存関係をとらえる必要があるため
文内ゼロ項の解析には,長距離の
依存関係を考慮する必要がある
長距離依存の例 モデルのイメージ
• 係り受け有
• 文内ゼロ
使用する素性
13
<単語> 彼女 は コロッケ を 食べた 。
Arg Pred Pred Context Mark
1 彼女 食べた を 食べた 。 0
2 は 食べた を 食べた 。 0
3 コロッケ 食べた を 食べた 。 0
4 を 食べた を 食べた 。 1
5 食べた 食べた を 食べた 。 1
6 。 食べた を 食べた 。 1
• Pred Context: 述語とその周りの単語
• Mark: Pred Context に含まれているか否か
素性ベクトルの作り方
14
Word
Emb
Mark
Emb
Concat
1 彼女 食べた を 食べた 。 0
𝒙 𝟏
ネットワークアーキテクチャ
15
RNN
Layer 2
RNN
Layer 1
Output
Layer
𝑥1 𝑥 𝑡 𝑥 𝑇
・・・
・・・
・・・
Input
Layer
彼女 コロッケ 。・・・
・・・
・・・
・・・
Input
GA 0.2
WO 0.1
NI 0.2
NONE 0.4
PRED 0.1
• 双方向型RNN (GRU) を使用
ラベルの確率
DRMにおける複数述語を含む文の解析
16
朝 起きて 、 彼女 は コロッケ を 食べ 、 学校に 向かった 。
NONE PRED NONE GA NONE NONE NONE NONE NONE NONE NONE NONE
朝起きて、彼女はコロッケを食べ、学校に向かった。
朝 起きて 、 彼女 は コロッケ を 食べ 、 学校に 向かった 。
NONE NONE NONE GA NONE WO NONE PRED NONE NONE NONE NONE
朝 起きて 、 彼女 は コロッケ を 食べ 、 学校に 向かった 。
NONE NONE NONE GA NONE NONE NONE NONE NONE NI PRED NONE
※ 各述語に対して異なるターゲットのラベル列が決まる
DRMにおける複数述語を含む文の解析
17
朝 起きて 、 彼女 は コロッケ を 食べ 、 学校に 向かった 。
𝒙 𝟐,𝟏 𝒙 𝟐,𝟐 𝒙 𝟐,𝟑 𝒙 𝟐,𝟒 𝒙 𝟐,𝟓 𝒙 𝟐,𝟔 𝒙 𝟐,𝟕 𝒙 𝟐,𝟖 𝒙 𝟐,𝟗
𝒙 𝟏,𝟏𝟎 𝒙 𝟏,𝟏𝟏 𝒙 𝟏,𝟏𝟐𝒙 𝟏,𝟏 𝒙 𝟏,𝟐 𝒙 𝟏,𝟑 𝒙 𝟏,𝟒 𝒙 𝟏,𝟓 𝒙 𝟏,𝟔 𝒙 𝟏,𝟕 𝒙 𝟏,𝟖 𝒙 𝟏,𝟗
𝒙 𝟐,𝟏𝟎 𝒙 𝟐,𝟏𝟏 𝒙 𝟐,𝟏𝟐
𝒙 𝟑,𝟏 𝒙 𝟑,𝟐 𝒙 𝟑,𝟑 𝒙 𝟑,𝟒 𝒙 𝟑,𝟓 𝒙 𝟑,𝟔 𝒙 𝟑,𝟕 𝒙 𝟑,𝟖 𝒙 𝟑,𝟗 𝒙 𝟑,𝟏𝟎 𝒙 𝟑,𝟏𝟏 𝒙 𝟑,𝟏𝟐
𝒙 𝟏,𝟑𝒙 𝟏,𝟏 𝒙 𝟏,𝟐
𝑫𝒆𝒆𝒑 𝑹𝑵𝑵
Label Label Label
𝒙 𝟐,𝟑𝒙 𝟐,𝟏 𝒙 𝟐,𝟐
𝑫𝒆𝒆𝒑 𝑹𝑵𝑵
Label Label Label
𝒙 𝟑,𝟑𝒙 𝟑,𝟏 𝒙 𝟑,𝟐
𝑫𝒆𝒆𝒑 𝑹𝑵𝑵
Label Label Label
朝 起きて 、 彼女 は コロッケ を 食べ 、 学校に 向かった 。
朝 起きて 、 彼女 は コロッケ を 食べ 、 学校に 向かった 。
素性ベクトル作成
各系列ごとに計算
問題点・解決策
18
深層リカレントモデル (DRM)
複数の述語を同時に考慮できない×
複数の述語を同時に考慮できる〇
深層リカレントグリッドモデル (DRGM)
深層リカレントグリッドモデル
モチベーション
20
• 複数の述語を考慮できるモデルの提案
• 解決策: RNNをグリッド状に連結する
モデルのイメージ グリッド連結のイメージ
素性ベクトルの計算を
系列間でも行う
DRMとDRGMの違い
21
DRM
𝒙 𝟐,𝟏 𝒙 𝟐,𝟕
𝒙 𝟏,𝟏𝟐𝒙 𝟏,𝟏 𝒙 𝟏,𝟕
𝒙 𝟐,𝟏𝟐
𝒙 𝟑,𝟏 𝒙 𝟑,𝟕 𝒙 𝟑,𝟏𝟐
𝒙 𝟏,𝟏𝟐𝒙 𝟏,𝟏 𝒙 𝟏,𝟕
𝑫𝒆𝒆𝒑 𝑹𝑵𝑵
Label Label Label
・・・ ・・・
・・・ ・・・
𝒙 𝟐,𝟏𝟐𝒙 𝟐,𝟏 𝒙 𝟐,𝟕
𝑫𝒆𝒆𝒑 𝑹𝑵𝑵
Label Label Label
・・・ ・・・
・・・ ・・・
𝒙 𝟑,𝟏𝟐𝒙 𝟑,𝟏 𝒙 𝟑,𝟕
𝑫𝒆𝒆𝒑 𝑹𝑵𝑵
Label Label Label
・・・ ・・・
・・・ ・・・
𝑫𝒆𝒆𝒑 𝑹𝑵𝑵
Label Label Label・・・ ・・・
Label Label Label・・・ ・・・
Label Label Label・・・ ・・・
DRGM
・・・ ・・・
・・・ ・・・
・・・ ・・・
使用する素性
22
朝 起きて 、 彼女 は コロッケ を 食べ 、 学校に 向かった 。
𝒙 𝟐,𝟏 𝒙 𝟐,𝟐 𝒙 𝟐,𝟑 𝒙 𝟐,𝟒 𝒙 𝟐,𝟓 𝒙 𝟐,𝟔 𝒙 𝟐,𝟕 𝒙 𝟐,𝟖 𝒙 𝟐,𝟗
1 2 3 4 5 6 7 8 9 10 11 12
1
2
p t
朝 起きて 、 彼女 は コロッケ を 食べ 、 学校に 向かった 。
3 朝 起きて 、 彼女 は コロッケ を 食べ 、 学校に 向かった 。
𝒙 𝟏,𝟏𝟎 𝒙 𝟏,𝟏𝟏 𝒙 𝟏,𝟏𝟐𝒙 𝟏,𝟏 𝒙 𝟏,𝟐 𝒙 𝟏,𝟑 𝒙 𝟏,𝟒 𝒙 𝟏,𝟓 𝒙 𝟏,𝟔 𝒙 𝟏,𝟕 𝒙 𝟏,𝟖 𝒙 𝟏,𝟗
𝒙 𝟐,𝟏𝟎 𝒙 𝟐,𝟏𝟏 𝒙 𝟐,𝟏𝟐
𝒙 𝟑,𝟏 𝒙 𝟑,𝟐 𝒙 𝟑,𝟑 𝒙 𝟑,𝟒 𝒙 𝟑,𝟓 𝒙 𝟑,𝟔 𝒙 𝟑,𝟕 𝒙 𝟑,𝟖 𝒙 𝟑,𝟗 𝒙 𝟑,𝟏𝟎 𝒙 𝟑,𝟏𝟏 𝒙 𝟑,𝟏𝟐
朝起きて、彼女はコロッケを食べ、学校に向かった。
ネットワークアーキテクチャ
23
𝑥1,1
𝑥2,1
𝑥3,1
Input
Layer
𝑥1,𝑡
𝑥2,𝑡
𝑥3,𝑡
𝑥1,𝑇
𝑥2,𝑇
𝑥3,𝑇
Grid
Layer 1
・・・
・・・
・・・
・・・
・・・ ・・・
・・・ ・・・
Grid
Layer 2
・・・ ・・・
・・・ ・・・
・・・ ・・・
・・・ ・・・
・・・ ・・・
Output
Layer
・・・ ・・・
・・・ ・・・
・・・ ・・・
・・・
・・・
・・・
GA 0.2
WO 0.1
NI 0.2
NONE 0.4
PRED 0.1
ラベルの確率
各グリッド層
24
ℎ1,2
(𝑙)
ℎ1,1
(𝑙)
ℎ1,3
(𝑙)
ℎ1,4
(𝑙)
ℎ1,5
(𝑙)
• 単語間の接続
深層リカレントモデルと同様
各グリッド層
25
ℎ1,2
(𝑙)
ℎ1,1
(𝑙)
ℎ2,1
(𝑙)
ℎ3,1
(𝑙)
ℎ1,3
(𝑙)
ℎ1,4
(𝑙)
ℎ1,5
(𝑙)
ℎ2,2
(𝑙)
ℎ2,3
(𝑙)
ℎ2,4
(𝑙)
ℎ2,5
(𝑙)
ℎ3,2
(𝑙)
ℎ3,3
(𝑙)
ℎ3,4
(𝑙)
ℎ3,5
(𝑙)
• 系列にまたがる接続
実験・結果・結論
実験設定
27
 データセット
NAIST Text Corpus Ver. 1.5
 訓練 25,000
 開発 5,000
 評価 9,000
 実装
 ライブラリ: Theano
 ハイパーパラメータ
 単語/隠れ層の次元: 32次元, ランダム初期化
 最適化手法: Adam
 L2正則化: [0.0001, 0.0005, 0.001]
実験結果: F値
28
中間層数 開発 評価
深層リカレント
モデル
(DRM)
2 80.14 80.58
4 80.66 80.91
6 80.52 80.37
8 80.74 80.70
深層リカレント
グリッドモデル
(DRGM)
2 80.43 80.63
4 80.78 80.93
6 81.14 81.22
8 80.90 81.06
• DRM < DRGM
• 複数の述語を考慮することによる効果
実験結果: 先行研究とのF値比較
29
Imamura+ 09 78.15
Matsubayashi+ 14 80.90
Ouchi+ 15 79.23
DRM 80.70
DRGM 81.22
NAIST Text Corpus 1.5を用いた先行研究との比較
• 先行研究の性能を上回る結果
実験結果: 格ごとのF値
30
係り受け有 文内ゼロ
ガ ヲ ニ ガ ヲ ニ
DRM 88.74 92.90 64.84 51.24 35.13 8.90
DRGM 88.66 93.95 66.50 51.57 38.06 9.44
Imamura+ 09 86.50 92.84 30.97 45.56 21.38 0.83
Matsubayashi+ 14 87.8 94.0 63.7 49.0 27.7 25.7
Ouchi+ 15 88.13 92.74 38.39 48.11 24.43 4.80
• 係り受け有
• 文内ゼロ
結論
31
1. 深層RNNを用いた述語項構造解析モデルの提案
2. 最先端の解析器を上回る精度を達成
https://github.com/hiroki13/neural-pasa-system
ソースコード
今後の課題
まとめ
• 本モデルの詳細なエラー分析
• 文間にまたがる述語項の同定

Weitere ähnliche Inhalte

Was ist angesagt?

2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)Tatsuya Yokota
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
【メタサーベイ】Video Transformer
 【メタサーベイ】Video Transformer 【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformercvpaper. challenge
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法Deep Learning JP
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたぱんいち すみもと
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -tmtm otm
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章Hakky St
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAGIRobots
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説tancoro
 
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual FeaturesARISE analytics
 
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)Preferred Networks
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてSho Takase
 
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Plot Hong
 
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめDSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめsleepy_yoshi
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Kota Matsui
 
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Preferred Networks
 
Transformer メタサーベイ
Transformer メタサーベイTransformer メタサーベイ
Transformer メタサーベイcvpaper. challenge
 

Was ist angesagt? (20)

2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
【メタサーベイ】Video Transformer
 【メタサーベイ】Video Transformer 【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformer
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
 
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
 
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
 
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習
 
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめDSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめ
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
 
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
 
Transformer メタサーベイ
Transformer メタサーベイTransformer メタサーベイ
Transformer メタサーベイ
 

Andere mochten auch

Duolingo.pptx
Duolingo.pptxDuolingo.pptx
Duolingo.pptxsyou6162
 
「HOME'Sデータセット」を活用した不動産物件画像への深層学習の適用の取り組み
「HOME'Sデータセット」を活用した不動産物件画像への深層学習の適用の取り組み「HOME'Sデータセット」を活用した不動産物件画像への深層学習の適用の取り組み
「HOME'Sデータセット」を活用した不動産物件画像への深層学習の適用の取り組みYoji Kiyota
 
Decoupled Neural Interfaces輪読資料
Decoupled Neural Interfaces輪読資料Decoupled Neural Interfaces輪読資料
Decoupled Neural Interfaces輪読資料Reiji Hatsugai
 
GPUとSSDがPostgreSQLを加速する~クエリ処理スループット10GB/sへの挑戦~ [DB Tech Showcase Tokyo/2017]
GPUとSSDがPostgreSQLを加速する~クエリ処理スループット10GB/sへの挑戦~ [DB Tech Showcase Tokyo/2017]GPUとSSDがPostgreSQLを加速する~クエリ処理スループット10GB/sへの挑戦~ [DB Tech Showcase Tokyo/2017]
GPUとSSDがPostgreSQLを加速する~クエリ処理スループット10GB/sへの挑戦~ [DB Tech Showcase Tokyo/2017]Kohei KaiGai
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」Keisuke Sugawara
 
ニューラルチューリングマシン入門
ニューラルチューリングマシン入門ニューラルチューリングマシン入門
ニューラルチューリングマシン入門naoto moriyama
 
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするConvolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするDaiki Shimada
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理Ryo Nakamura
 

Andere mochten auch (9)

Duolingo.pptx
Duolingo.pptxDuolingo.pptx
Duolingo.pptx
 
「HOME'Sデータセット」を活用した不動産物件画像への深層学習の適用の取り組み
「HOME'Sデータセット」を活用した不動産物件画像への深層学習の適用の取り組み「HOME'Sデータセット」を活用した不動産物件画像への深層学習の適用の取り組み
「HOME'Sデータセット」を活用した不動産物件画像への深層学習の適用の取り組み
 
NL20161222invited
NL20161222invitedNL20161222invited
NL20161222invited
 
Decoupled Neural Interfaces輪読資料
Decoupled Neural Interfaces輪読資料Decoupled Neural Interfaces輪読資料
Decoupled Neural Interfaces輪読資料
 
GPUとSSDがPostgreSQLを加速する~クエリ処理スループット10GB/sへの挑戦~ [DB Tech Showcase Tokyo/2017]
GPUとSSDがPostgreSQLを加速する~クエリ処理スループット10GB/sへの挑戦~ [DB Tech Showcase Tokyo/2017]GPUとSSDがPostgreSQLを加速する~クエリ処理スループット10GB/sへの挑戦~ [DB Tech Showcase Tokyo/2017]
GPUとSSDがPostgreSQLを加速する~クエリ処理スループット10GB/sへの挑戦~ [DB Tech Showcase Tokyo/2017]
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
ニューラルチューリングマシン入門
ニューラルチューリングマシン入門ニューラルチューリングマシン入門
ニューラルチューリングマシン入門
 
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするConvolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理
 

深層リカレントニューラルネットワークを用いた日本語述語項構造解析