SlideShare ist ein Scribd-Unternehmen logo
1 von 44
Downloaden Sie, um offline zu lesen
2019.12.14
Takuya KOUMURA
cycentum.com
P. 1
言語表現モデルBERTで
文章生成してみた
上村卓也
2019.12.14
ヤバ研第12回ワークショップ
こうむらたくや
発表スライドはこちら→
http://cycentum.com/presentation/yabaken20191214/
コードはこちら→
https://github.com/cycentum/bert-based-text-generation
2019.12.14
Takuya KOUMURA
cycentum.com
P. 2
私は・・・
⚫ 職業
⚪研究員
⚫ 所属
⚪NTT コミュニケーション科学基礎研究所
⚪人間情報研究部(心理学・神経科学のラボ)
⚫ ヤバ研ワークショップ
⚪参加:3-4回目くらい?
⚪発表:初挑戦!
⚫ 得意分野
⚪神経科学(電気生理・生化学反応)
⚪音の心理学(聴覚・発声)
⚪計算(シミュレーション・機械学習・データ解析)
SNS
2019.12.14
Takuya KOUMURA
cycentum.com
P. 3
研究内容(現在&過去)
⚫ NTT
⚪聴覚神経系の計算機シミュレーション
⚪質感知覚
⚫ 東大
⚪トリのさえずり分析
⚪さえずり聴取中の電気生理
⚪生化学反応の計算機シミュレーション
2019.12.14
Takuya KOUMURA
cycentum.com
P. 4
最近の本業:聴覚神経系の計算機シミュレーション
自然音
認識
認識
自然音
モデル
刺激音
活動を
記録
2019.12.14
Takuya KOUMURA
cycentum.com
P. 5
最近の本業:聴覚神経系の計算機シミュレーション
自然音
認識
認識
自然音
刺激音
活動を
記録
刺激音
活動を
記録
比較
ニューラル
ネットワーク
2019.12.14
Takuya KOUMURA
cycentum.com
P. 6
言語表現モデルBERTで
文章生成してみた
⚫ 得意分野
⚪神経科学(電気生理・生化学反応)
⚪音の心理学(聴覚・発声)
⚪計算(シミュレーション・機械学習・データ解析)
+言語処理
2019.12.14
Takuya KOUMURA
cycentum.com
P. 7
今日は鉄板料理が
食べたいな。
目的:文章生成したい
function generate()
{
…
return generated_text;
}
x ~ P(x)
生成
function generate(input_text)
{
…
return generated_text;
}
x ~ P(x|y)
何食べたい?
今日は鉄板料理が
食べたいな。
生成
今回はこっち
2019.12.14
Takuya KOUMURA
cycentum.com
P. 8
今日は鉄板料理が
食べたいな。
生成
目的:文章生成したい
⚫ 要件
⚪文法的・意味的に正しい
⚪毎回異なる文章が出る
今日が鉄板料理に
食べたいな。
今日は鉄板料理が
割りたいな。
function generate()
{
…
return generated_text;
}
2019.12.14
Takuya KOUMURA
cycentum.com
P. 9
方法
① 予め全て用意しておく
② ランダムに生成し、後で選ぶ
③ 順番に生成する
④ ちょっとずつ変形する
⑤ ノイズを変換する
2019.12.14
Takuya KOUMURA
cycentum.com
P. 10
① 予め全て用意しておく
今日は鉄板料理
が食べたいな。
0.1
今日は鍋が食べ
たいな。
0.01
:
:
:
:
明日は晴れるか
な?
0.2
出現確率
今日は鉄板料理
が食べたいな。
出現確率に
従って選ぶ
⚫ 数が多い→覚えきれない
⚫ 数が少ない→「毎回異なる文章が出る」を満たさない
⚫ 普通、「生成」とは呼ばない
今日 は 鉄板 料理 が 食べ たい な 。
今日は鉄板料理が食べたいな。
分割
単語 x = x1x2 … xn
x ~ P(x) = P(x1, x2, … xn)
言語学:文字→単語→句→節→文
2019.12.14
Takuya KOUMURA
cycentum.com
P. 12
② ランダムに生成し、後で選ぶ
⚫ 文法的・意味的に正しい文章は、(以外と?)少ない→時間がかかる
今日
明日
は
が
鉄板
料理
鍋
:
:
・・・ 食べ今日料理か料理な明日料理? → ✕
鉄板がなたい鍋鍋晴れるは。 → ✕
なな鍋は食べ明日鍋明日。 → ✕
料理今日料理食べ今日鉄板料理鍋? → ✕
料理料理料理な今日は明日明日? → ✕
今日晴れるがな料理か鉄板な。 → ○?
鉄板今日今日が食べ食べたい鍋。 → ✕
はが明日晴れる晴れる鍋はは? → ✕
明日明日料理たいなか鉄板か。 → ✕
料理食べ明日晴れるがかがたい。 → ✕
x = x1x2 … xn
x ~ P(x) = P(x1)P(x2) … P(xn)
P(xi) = P
if D(x) = True: xを採用単語リスト
2019.12.14
Takuya KOUMURA
cycentum.com
P. 13
② ランダムに生成し、後で選ぶ
食べ今日料理か料理な明日料理?
鉄板がなたい鍋鍋晴れるは。
なな鍋は食べ明日鍋明日。
料理今日料理食べ今日鉄板料理鍋?
料理料理料理な今日は明日明日?
今日晴れるがな料理か鉄板な。
鉄板今日今日が食べ食べたい鍋。
はが明日晴れる晴れる鍋はは?
明日明日料理たいなか鉄板か。
料理食べ明日晴れるがかがたい。
文章 画像
2019.12.14
Takuya KOUMURA
cycentum.com
P. 14
方法
① 予め全て用意しておく →普通、「生成」とは呼ばない
② ランダムに生成し、後で選ぶ →時間がかかる
③ 順番に生成する
④ ちょっとずつ変形する
⑤ ノイズを変換する
2019.12.14
Takuya KOUMURA
cycentum.com
P. 15
③ 順番に生成する
は今日
明日
は
が
鉄板
料理
鍋
:
:
は が
は が 痛い
・・・
は が 痛い けど 料理 を 食べ
x = x1x2 … xn
x ~ P(x) = P(x1)P(x2|x1)P(x3|x1x2) … P(xn|x1x2 … xn-1)単語リスト
・・・
2019.12.14
Takuya KOUMURA
cycentum.com
P. 16
③ 順番に生成する
文章
van den Oord A, Kalchbrenner N,
Kavukcuoglu K (2016)
“Pixel Recurrent Neural Networks”. ICML.
etc.
画像
音
van den Oord A, Dieleman S,
Zen H, Simonyan K, et al.,
(2016) “WaveNet: A Generative
Model for Raw Audio” arXiv
Prepr.
etc.
2019.12.14
Takuya KOUMURA
cycentum.com
P. 17
今日 は 鉄板
が 食べ たい な 。
今日 は 鉄板 が 食べ たい な 。
2019.12.14
Takuya KOUMURA
cycentum.com
P. 18
④ ちょっとずつ変形する
今日 は 鉄板 料理 が 食べ たい な 。
今日 は 料理 が 食べ たい な 。
今日 は タイ 料理 が 食べ たい な 。
は タイ 料理 が 食べ たい な 。
ボク は タイ 料理 が 食べ たい な 。
ボク の タイ 米 を 買っ て ね ?
隠す
隠す
・・・
෥𝒙~𝑪 ෥𝒙 𝒙
𝒙~𝑷 𝒙 ෥𝒙 → 𝒙~𝑷 𝒙
推定
推定
種
実際にやってみる
2019.12.14
Takuya KOUMURA
cycentum.com
P. 20
④ ちょっとずつ変形する
文章 画像
Bengio Y, Yao L, Alain G, Vincent P (2013) “Generalized
denoising auto-encoders as generative models”. NIPS
etc.
2019.12.14
Takuya KOUMURA
cycentum.com
P. 21
今日 は 料理 が 食べ たい な 。
今日 は タイ 料理 が 食べ たい な 。
今日 は 料理 たい な 。
今日 は タイ 料理 を 作り たい な 。
・・・・・・
2019.12.14
Takuya KOUMURA
cycentum.com
P. 22
⑤ ノイズを変換する
今日 は 鉄板 料理 が 食べ たい な 。
変換
z ~ P(z) = U01, N(0, 1), etc.
x = f(z)
2019.12.14
Takuya KOUMURA
cycentum.com
P. 23
⑤ ノイズを変換する
文章
音
Luo Y-J, Agres K, Herremans D (2019) “Learning
Disentangled Representations of Timbre and Pitch for
Musical Instrument Sounds Using Gaussian Mixture
Variational Autoencoders”. Conference of the International
Society for Music Information Retrieval
etc.
画像
Radford A, Metz L, Chintala S (2016) “Unsupervised
Representation Learning with Deep Convolutional
Generative Adversarial Networks” ICLR.
etc.
2019.12.14
Takuya KOUMURA
cycentum.com
P. 24
方法
① 予め全て用意しておく →普通、「生成」とは呼ばない
② ランダムに生成し、後で選ぶ →時間がかかる
③ 順番に生成する
④ ちょっとずつ変形する
⑤ ノイズを変換する
あわせ技
② + ⑤ 正しいと判別されるようにノイズを変換する
③ + ⑤ 順番に生成したデータを変換する
2019.12.14
Takuya KOUMURA
cycentum.com
P. 25
② ランダムに生成し、後で選ぶ
x = x1x2 … xn
x ~ P(x) = P(x1)P(x2) … P(xn)
P(xi) = P
if D(x) = True: xを採用
食べ今日料理か料理な明日料理? ✕
鉄板がなたい鍋鍋晴れるは。 ✕
なな鍋は食べ明日鍋明日。 ✕
料理今日料理食べ今日鉄板料理鍋? ✕
料理料理料理な今日は明日明日? ✕
今日晴れるがな料理か鉄板な。 ○?
鉄板今日今日が食べ食べたい鍋。 ✕
はが明日晴れる晴れる鍋はは? ✕
明日明日料理たいなか鉄板か。 ✕
料理食べ明日晴れるがかがたい。 ✕
今日
明日
は
が
鉄板
料理
鍋
:
:
2019.12.14
Takuya KOUMURA
cycentum.com
P. 26
② ランダムに生成し、後で選ぶ
x = x1x2 … xn
x ~ P(x) = P(x1)P(x2) … P(xn)
P(xi) = P
if D(x) = True: xを採用
判別器
○ or✕
2019.12.14
Takuya KOUMURA
cycentum.com
P. 27
⑤ ノイズを変換する
今日 は 鉄板 料理 が 食べ たい な 。
変換
z ~ P(z) = U01, N(0, 1), etc.
x = f(z)
2019.12.14
Takuya KOUMURA
cycentum.com
P. 28
② + ⑤ 正しいと判別されるようにノイズを変換する
○になるように
z ~ P(z) = U01, N(0, 1), etc.
x = f(z)
𝒇 = argmax
𝑓
𝑫 𝒇 𝒛
Goodfellow I, Pouget-Abadie J,
Mirza M, Xu B, Warde-Farley D,
Ozair S, Courville A, Bengio Y (2014)
“Generative Adversarial Nets” NIPS.
etc.
2019.12.14
Takuya KOUMURA
cycentum.com
P. 29
方法
① 予め全て用意しておく →普通、「生成」とは呼ばない
② ランダムに生成し、後で選ぶ →時間がかかる
③ 順番に生成する
④ ちょっとずつ変形する
⑤ ノイズを変換する
あわせ技
② + ⑤ 正しいと判別されるようにノイズを変換する
③ + ⑤ 順番に生成したデータを変換する
2019.12.14
Takuya KOUMURA
cycentum.com
P. 30
⑤ ノイズを変換する
今日 は 鉄板 料理 が 食べ たい な 。
変換
z ~ P(z) = U01, N(0, 1), etc.
x = f(z)
2019.12.14
Takuya KOUMURA
cycentum.com
P. 31
③ 順番に生成する
は
は が
は が 痛い
・・・
は が 痛い けど 料理 を 食べ
x = x1x2 … xn
x ~ P(x) = P(x1)P(x2|x1)P(x3|x1x2) … P(xn|x1x2 … xn-1)
2019.12.14
Takuya KOUMURA
cycentum.com
P. 32
③ + ⑤ 順番に生成したデータを変換する
z ~ P(z) = P(z1)P(z2|z1)P(z3|z1z2) … P(zm|z1z2 … zm-1)
x = f(z)
Razavi A, Oord A van den,
Vinyals O (2019) “Generating
Diverse High-Fidelity Images
with VQ-VAE-2” ICLR.
画像
2019.12.14
Takuya KOUMURA
cycentum.com
P. 33
方法
① 予め全て用意しておく →普通、「生成」とは呼ばない
② ランダムに生成し、後で選ぶ →時間がかかる
③ 順番に生成する
④ ちょっとずつ変形する
⑤ ノイズを変換する
あわせ技
② + ⑤ 正しいと判別されるようにノイズを変換する
③ + ⑤ 順番に生成したデータを変換する
どのくらい使われているのか?
(私が観測している範囲では)
2019.12.14
Takuya KOUMURA
cycentum.com
P. 34
④ ちょっとずつ変形する
⚫ 昔々、深層学習ブームの初期の頃に提案される
⚫ 「② + ⑤ 」の台頭
⚫ 忘れ去られる
⚫ BERTを使ってみたかった
 Vincent P (2011) “A connection between scorematching and
denoising autoencoders” Neural Comput.
 Bengio Y, Yao L, Alain G, Vincent P (2013) “Generalized
denoising auto-encoders as generative models” NIPS.
 Bengio Y, Thibodeau-Laufer E, Alain G, Yosinski J, Thibodeau-
Laufer É, Alain G, Yosinski J (2014) “Deep Generative
Stochastic Networks Trainable by Backprop” ICML.
正しいと判別されるように
ノイズを変換する
Karras T, Laine S, Aittala M, Hellsten J, Lehtinen J, Aila T
(2019) “Analyzing and Improving the Image Quality of
StyleGAN”.
2019.12.14
Takuya KOUMURA
cycentum.com
P. 35
言語表現モデルBERTで
文章生成してみた
2019.12.14
Takuya KOUMURA
cycentum.com
P. 36
BERT
Bidirectional Encoder Representations from Transformers
↓
(言語の)数値表現
今日 は 料理 たい な 。
今日 は 鉄板 料理 が 食べ たい な 。
隠す
復元
言語課題(分類、翻訳、質問応答、etc)数値表現
色々な言語課題に使える言語の数値表現
↓
手法の名前(固有名詞)
↓
2019.12.14
Takuya KOUMURA
cycentum.com
P. 37
色々な課題に使える数値表現の獲得
文章
画像
数値表現
画像認識課題
(分類、説明、etc)音
数値表現
音声認識、話者認識、
話者変換、楽器変換、
etc
2019.12.14
Takuya KOUMURA
cycentum.com
P. 38
BERTの訓練
⚫ 隠された単語の復元
⚫ 連続する文かどうかの判別
今日 は 料理 たい な 。
今日 は 鉄板 料理 が 食べ たい な 。
今日 は 鉄板 料理 が 食べ たい な 。 明日 も 食べ たい な 。
今日 は 鉄板 料理 が 食べ たい な 。 文章 生成 の 方法 は ?
→連続する
→連続しない
2019.12.14
Takuya KOUMURA
cycentum.com
P. 39
仕組み:Transformer
今日 は 料理 たい な 。入力
Attention
NN
ニューラル
ネットワーク
今日 は 鉄板 料理 が 食べ たい な 。
2019.12.14
Takuya KOUMURA
cycentum.com
P. 40
仕組み:Transformer
今日 は 料理 たい な 。入力
Attention
・・・ ・・・NN
ニューラル
ネットワーク NN
NN NN NN・・・ ・・・
・・・今日 は 鉄板 料理 が 食べ たい な 。
NN
2019.12.14
Takuya KOUMURA
cycentum.com
P. 41
性能
⚫ 11の言語課題で最高精度を達成
Devlin J, Chang M-W, Lee K, Toutanova K (2018) “BERT: Pre-training of
Deep Bidirectional Transformers for Language Understanding”
2019.12.14
Takuya KOUMURA
cycentum.com
P. 42
BERT
・・・
・・・
2019.12.14
Takuya KOUMURA
cycentum.com
P. 43
2019.12.14
Takuya KOUMURA
cycentum.com
P. 44
言語表現モデルBERTで
文章生成してみた
上村卓也
2019.12.14
ヤバ研第12回ワークショップ
こうむらたくや
発表スライドはこちら→
http://cycentum.com/presentation/yabaken20191214/
コードはこちら→
https://github.com/cycentum/bert-based-text-generation

Weitere ähnliche Inhalte

Was ist angesagt?

研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有Naoaki Okazaki
 
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...Deep Learning JP
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII
 
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions [DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions Deep Learning JP
 
[DL輪読会]Deep High-Resolution Representation Learning for Human Pose Estimation
[DL輪読会]Deep High-Resolution Representation Learning for Human Pose Estimation[DL輪読会]Deep High-Resolution Representation Learning for Human Pose Estimation
[DL輪読会]Deep High-Resolution Representation Learning for Human Pose EstimationDeep Learning JP
 
最適化超入門
最適化超入門最適化超入門
最適化超入門Takami Sato
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat ModelsDeep Learning JP
 
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )Generative Models(メタサーベイ )
Generative Models(メタサーベイ )cvpaper. challenge
 
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法CV分野におけるサーベイ方法
CV分野におけるサーベイ方法Hirokatsu Kataoka
 
Data-Centric AI開発における データ生成の取り組み
Data-Centric AI開発における データ生成の取り組みData-Centric AI開発における データ生成の取り組み
Data-Centric AI開発における データ生成の取り組みTakeshi Suzuki
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?Fumihiko Takahashi
 
CNNの構造最適化手法について
CNNの構造最適化手法についてCNNの構造最適化手法について
CNNの構造最適化手法についてMasanoriSuganuma
 
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3までYahoo!デベロッパーネットワーク
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明Satoshi Hara
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)RyuichiKanoh
 
機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018Takahiro Kubo
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)Deep Learning JP
 
Word2vecの理論背景
Word2vecの理論背景Word2vecの理論背景
Word2vecの理論背景Masato Nakai
 

Was ist angesagt? (20)

研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有
 
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions [DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
 
[DL輪読会]Deep High-Resolution Representation Learning for Human Pose Estimation
[DL輪読会]Deep High-Resolution Representation Learning for Human Pose Estimation[DL輪読会]Deep High-Resolution Representation Learning for Human Pose Estimation
[DL輪読会]Deep High-Resolution Representation Learning for Human Pose Estimation
 
最適化超入門
最適化超入門最適化超入門
最適化超入門
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )Generative Models(メタサーベイ )
Generative Models(メタサーベイ )
 
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法CV分野におけるサーベイ方法
CV分野におけるサーベイ方法
 
Data-Centric AI開発における データ生成の取り組み
Data-Centric AI開発における データ生成の取り組みData-Centric AI開発における データ生成の取り組み
Data-Centric AI開発における データ生成の取り組み
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
 
ゼロから始める転移学習
ゼロから始める転移学習ゼロから始める転移学習
ゼロから始める転移学習
 
CNNの構造最適化手法について
CNNの構造最適化手法についてCNNの構造最適化手法について
CNNの構造最適化手法について
 
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018
 
BERT入門
BERT入門BERT入門
BERT入門
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
 
Word2vecの理論背景
Word2vecの理論背景Word2vecの理論背景
Word2vecの理論背景
 

Mehr von Takuya Koumura

教師あり学習を用いた聴覚系のモデリング
教師あり学習を用いた聴覚系のモデリング教師あり学習を用いた聴覚系のモデリング
教師あり学習を用いた聴覚系のモデリングTakuya Koumura
 
機械学習と生物の聴覚系を生理学的に比較する
機械学習と生物の聴覚系を生理学的に比較する機械学習と生物の聴覚系を生理学的に比較する
機械学習と生物の聴覚系を生理学的に比較するTakuya Koumura
 
Journal club: Quantitative models of neural language representation
Journal club: Quantitative models of neural language representationJournal club: Quantitative models of neural language representation
Journal club: Quantitative models of neural language representationTakuya Koumura
 
専修大学 応用心理学入門・心理学102 自己・対人関係認知・集団・集合
専修大学 応用心理学入門・心理学102 自己・対人関係認知・集団・集合専修大学 応用心理学入門・心理学102 自己・対人関係認知・集団・集合
専修大学 応用心理学入門・心理学102 自己・対人関係認知・集団・集合Takuya Koumura
 
専修大学 応用心理学入門・心理学102 適応・不適応
専修大学 応用心理学入門・心理学102 適応・不適応専修大学 応用心理学入門・心理学102 適応・不適応
専修大学 応用心理学入門・心理学102 適応・不適応Takuya Koumura
 
専修大学 応用心理学入門・心理学102 パーソナリティ
専修大学 応用心理学入門・心理学102 パーソナリティ専修大学 応用心理学入門・心理学102 パーソナリティ
専修大学 応用心理学入門・心理学102 パーソナリティTakuya Koumura
 
専修大学 応用心理学入門・心理学102 心の発達
専修大学 応用心理学入門・心理学102 心の発達専修大学 応用心理学入門・心理学102 心の発達
専修大学 応用心理学入門・心理学102 心の発達Takuya Koumura
 
専修大学 応用心理学入門・心理学102 情動
専修大学 応用心理学入門・心理学102 情動専修大学 応用心理学入門・心理学102 情動
専修大学 応用心理学入門・心理学102 情動Takuya Koumura
 
専修大学 応用心理学入門・心理学102 動機づけ
専修大学 応用心理学入門・心理学102 動機づけ専修大学 応用心理学入門・心理学102 動機づけ
専修大学 応用心理学入門・心理学102 動機づけTakuya Koumura
 
専修大学 応用心理学入門・心理学102 オペラント条件づけ
専修大学 応用心理学入門・心理学102 オペラント条件づけ専修大学 応用心理学入門・心理学102 オペラント条件づけ
専修大学 応用心理学入門・心理学102 オペラント条件づけTakuya Koumura
 
専修大学 応用心理学入門・心理学102 学習・古典的条件づけ
専修大学 応用心理学入門・心理学102 学習・古典的条件づけ専修大学 応用心理学入門・心理学102 学習・古典的条件づけ
専修大学 応用心理学入門・心理学102 学習・古典的条件づけTakuya Koumura
 
専修大学 応用心理学入門・心理学102 導入
専修大学 応用心理学入門・心理学102 導入専修大学 応用心理学入門・心理学102 導入
専修大学 応用心理学入門・心理学102 導入Takuya Koumura
 
専修大学 基礎心理学入門・心理学101 脳の区分
専修大学 基礎心理学入門・心理学101 脳の区分専修大学 基礎心理学入門・心理学101 脳の区分
専修大学 基礎心理学入門・心理学101 脳の区分Takuya Koumura
 
専修大学 基礎心理学入門・心理学101 言語
専修大学 基礎心理学入門・心理学101 言語専修大学 基礎心理学入門・心理学101 言語
専修大学 基礎心理学入門・心理学101 言語Takuya Koumura
 
専修大学 基礎心理学入門・心理学101 記憶
専修大学 基礎心理学入門・心理学101 記憶専修大学 基礎心理学入門・心理学101 記憶
専修大学 基礎心理学入門・心理学101 記憶Takuya Koumura
 
専修大学 基礎心理学入門・心理学101 嗅覚・味覚
専修大学 基礎心理学入門・心理学101 嗅覚・味覚専修大学 基礎心理学入門・心理学101 嗅覚・味覚
専修大学 基礎心理学入門・心理学101 嗅覚・味覚Takuya Koumura
 
専修大学 基礎心理学入門・心理学101 耳
専修大学 基礎心理学入門・心理学101 耳専修大学 基礎心理学入門・心理学101 耳
専修大学 基礎心理学入門・心理学101 耳Takuya Koumura
 
専修大学 基礎心理学入門・心理学101 聴覚・音
専修大学 基礎心理学入門・心理学101 聴覚・音専修大学 基礎心理学入門・心理学101 聴覚・音
専修大学 基礎心理学入門・心理学101 聴覚・音Takuya Koumura
 
深層ニューラルネットワークによる聴覚系のモデリング
深層ニューラルネットワークによる聴覚系のモデリング深層ニューラルネットワークによる聴覚系のモデリング
深層ニューラルネットワークによる聴覚系のモデリングTakuya Koumura
 

Mehr von Takuya Koumura (20)

教師あり学習を用いた聴覚系のモデリング
教師あり学習を用いた聴覚系のモデリング教師あり学習を用いた聴覚系のモデリング
教師あり学習を用いた聴覚系のモデリング
 
機械学習と生物の聴覚系を生理学的に比較する
機械学習と生物の聴覚系を生理学的に比較する機械学習と生物の聴覚系を生理学的に比較する
機械学習と生物の聴覚系を生理学的に比較する
 
Journal club: Quantitative models of neural language representation
Journal club: Quantitative models of neural language representationJournal club: Quantitative models of neural language representation
Journal club: Quantitative models of neural language representation
 
専修大学 応用心理学入門・心理学102 自己・対人関係認知・集団・集合
専修大学 応用心理学入門・心理学102 自己・対人関係認知・集団・集合専修大学 応用心理学入門・心理学102 自己・対人関係認知・集団・集合
専修大学 応用心理学入門・心理学102 自己・対人関係認知・集団・集合
 
専修大学 応用心理学入門・心理学102 適応・不適応
専修大学 応用心理学入門・心理学102 適応・不適応専修大学 応用心理学入門・心理学102 適応・不適応
専修大学 応用心理学入門・心理学102 適応・不適応
 
専修大学 応用心理学入門・心理学102 パーソナリティ
専修大学 応用心理学入門・心理学102 パーソナリティ専修大学 応用心理学入門・心理学102 パーソナリティ
専修大学 応用心理学入門・心理学102 パーソナリティ
 
専修大学 応用心理学入門・心理学102 心の発達
専修大学 応用心理学入門・心理学102 心の発達専修大学 応用心理学入門・心理学102 心の発達
専修大学 応用心理学入門・心理学102 心の発達
 
専修大学 応用心理学入門・心理学102 情動
専修大学 応用心理学入門・心理学102 情動専修大学 応用心理学入門・心理学102 情動
専修大学 応用心理学入門・心理学102 情動
 
専修大学 応用心理学入門・心理学102 動機づけ
専修大学 応用心理学入門・心理学102 動機づけ専修大学 応用心理学入門・心理学102 動機づけ
専修大学 応用心理学入門・心理学102 動機づけ
 
専修大学 応用心理学入門・心理学102 オペラント条件づけ
専修大学 応用心理学入門・心理学102 オペラント条件づけ専修大学 応用心理学入門・心理学102 オペラント条件づけ
専修大学 応用心理学入門・心理学102 オペラント条件づけ
 
専修大学 応用心理学入門・心理学102 学習・古典的条件づけ
専修大学 応用心理学入門・心理学102 学習・古典的条件づけ専修大学 応用心理学入門・心理学102 学習・古典的条件づけ
専修大学 応用心理学入門・心理学102 学習・古典的条件づけ
 
専修大学 応用心理学入門・心理学102 導入
専修大学 応用心理学入門・心理学102 導入専修大学 応用心理学入門・心理学102 導入
専修大学 応用心理学入門・心理学102 導入
 
Journal Club: VQ-VAE2
Journal Club: VQ-VAE2Journal Club: VQ-VAE2
Journal Club: VQ-VAE2
 
専修大学 基礎心理学入門・心理学101 脳の区分
専修大学 基礎心理学入門・心理学101 脳の区分専修大学 基礎心理学入門・心理学101 脳の区分
専修大学 基礎心理学入門・心理学101 脳の区分
 
専修大学 基礎心理学入門・心理学101 言語
専修大学 基礎心理学入門・心理学101 言語専修大学 基礎心理学入門・心理学101 言語
専修大学 基礎心理学入門・心理学101 言語
 
専修大学 基礎心理学入門・心理学101 記憶
専修大学 基礎心理学入門・心理学101 記憶専修大学 基礎心理学入門・心理学101 記憶
専修大学 基礎心理学入門・心理学101 記憶
 
専修大学 基礎心理学入門・心理学101 嗅覚・味覚
専修大学 基礎心理学入門・心理学101 嗅覚・味覚専修大学 基礎心理学入門・心理学101 嗅覚・味覚
専修大学 基礎心理学入門・心理学101 嗅覚・味覚
 
専修大学 基礎心理学入門・心理学101 耳
専修大学 基礎心理学入門・心理学101 耳専修大学 基礎心理学入門・心理学101 耳
専修大学 基礎心理学入門・心理学101 耳
 
専修大学 基礎心理学入門・心理学101 聴覚・音
専修大学 基礎心理学入門・心理学101 聴覚・音専修大学 基礎心理学入門・心理学101 聴覚・音
専修大学 基礎心理学入門・心理学101 聴覚・音
 
深層ニューラルネットワークによる聴覚系のモデリング
深層ニューラルネットワークによる聴覚系のモデリング深層ニューラルネットワークによる聴覚系のモデリング
深層ニューラルネットワークによる聴覚系のモデリング
 

Kürzlich hochgeladen

デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 

Kürzlich hochgeladen (8)

デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 

言語表現モデルBERTで文章生成してみた