SlideShare a Scribd company logo
1 of 15
Download to read offline
1 3 .2 隠れマルコフモデル
 (Hidden Markov Model)

                2010/7/17
                 showyou
お詫び



1 3 .2 .1 も行う予定でしたが、1 3 .2 .1 を実装する
      には1 3 .2 .2 を理解しないとできないの
         で、nokunoさんにお願いしました
自己紹介
●   Hatena, Twitter: showyou
●
    ソフトウェアエンジニア(Webではない)
●   Python, C++。Javaは読めるけどほとんど書けない
●
    大学院では視線認識と手指認識を使ってテレビ
    の画面を操作する研究をしていた
    ●
        アプリケーション中心、認識部分は触れず
●
    Twitterで人工無脳作ってます(ha_ma, donsuke,
    yuka_)
隠れマルコフモデル(H M M )とは
下の図に示される状態空間モデルにおいて、潜在変数が離散な例
簡単にいうと 
隠れ変数のマルコフ連鎖
一つの時刻について見ると、成分密度分布が過去の観測で選択された
成分に依存して選択されるように、混合分布モデルを拡張したもの
 音声認識
 自然言語モデル
 オンライン手書き文字認識
 タンパク質やD N A などの生物学的配列の解析
などに広く用いられている
HMMの性質
●
    潜在変数は離散的な多項変数
    zn は [ 1, 0, 0, .. ]のような形をとる
●   p(zn)は直前の潜在変数p(zn-1)に依存
●
    潜在変数の条件付き分布は以下の形にかける
                            K       K

         p  z n∣z n−1 , A=∏ ∏ A
                                        z n−1, j z nk
                                        jk              −13.7
                            k=1 j=1

     A:遷移行列を要素に持つ数表
       Aj kはp(znk = 1|zn-1,j = 1)
     0≦Ajk ≦ 1, ΣkAjk=1
     A はK (K -1 )個の独立なパラメータ
●
    最初の潜在ノードz_1 だけ親ノードを持たず特
    別である
●   Πk = p(z1k=1)を持つ確率のベクトルπ で表され
    る周辺分布p(z1)を持つ
                   K
          p  z 1∣=∏  −13.8
                         z1k
                         k
                  k =1

    ただしΣk πk=1
遷移行列を自分なりに書いてみた
                                            Akj = p(znk = 1| zn-1,j =1)
                                            A31 = p(zn3| zn-1,1)

                                            j=3, k=1しか発生しない場合、


                                                 [                 ]
                                                   0 0 p  z n3∣z n−1,1
                                               A= 0 0          0
                                                   0 0         0
zn-1 = [ 0, 0, 1 ]^T   zn = [ 1, 0, 0 ]^T       横が現在取ってる状態
                                                縦が前とってる状態
                                                表Aは状態間の遷移確率を表している
●
    遷移行列はノードを状態とする状態遷移図(下
    左)で表されることもある
    ●
        ただしこの図は複数の変数ではなく、一つの変数
        の状態を表している
●
    状態遷移図を時間方向に展開すると格子図(ト
    レリス図, 下右)となる
観測変数p(xn|zn,Φ)の定義
                           K

            p  x n∣z n , =∏ p  x n∣k  −13.9
                                         z nk

                          k =1


●
    Φ:分布を支配するパラメータの集合
●   p(xn|zn,Φ)は出力確率と呼ばれるK
                           p x n∣z n , = ∏ N  x n∣k ,  k 
                                                                   z nk
    ●   xが連続:(9.11)式
                                                k =1

        xが離散:条件付き確率表 で与えられる
均一なモデルについて考えてみる
●
     均一なモデル=
     ●
         潜在変数を支配する
         全ての条件付き分布が
         同じパラメータA を共有
     ●
         全ての出力分布が同一のパラメータΦ を共有

●
     このときの潜在変数と観測変数の同時分布
                              N                     N

    p  X , Z∣= p  z 1∣[ ∏ p  z n∣z n−1 , A] ∏ p  x m∣z m , 
                             n=2                   m=1
                               −13.10 
生成モデルから見たH M M
混合ガウス分布                    HMM

π1        π2               z1=j        z2=1
               z1=1
                      πk
               z1=2                    z2=2




                      z1          z2


                      x1          x2


     x1
生成モデルから見たHMM
left-to-rig ht H M M
●
    A のk<jとなるA _jkが0
    のH M M
●   多くの場合状態j=1から
    始まる
●   k>j+ΔならA_jk=0にな
    る(大きな変化を避け
    る)
left-rig htの例:オンライン手書き文字
●
    数字2 の画像が4 5 個
●
    K = 1 6 , 1 6 種類の角度に対
    応
●
    出力は角度と決まった長さ
    を持つ線分
●
    出力分布は状態に角度を関
    連付けた1 6 x1 6 の表
●
    同じ状態か+ 1 になる遷移
    以外は遷移確率が0
H M M の特徴
時間軸上での局所的な伸縮に対して、ある程度
まで普遍性を保つ
●
    オンライン手書き文字:形状(尖点・輪の位置)
●
    音声認識:発生速度の自然なゆらぎ

More Related Content

What's hot

数式を(ちょっとしか)使わずに隠れマルコフモデル
数式を(ちょっとしか)使わずに隠れマルコフモデル数式を(ちょっとしか)使わずに隠れマルコフモデル
数式を(ちょっとしか)使わずに隠れマルコフモデルYuya Takashina
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法Ken'ichi Matsui
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化gree_tech
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門Shuyo Nakatani
 
Variational AutoEncoder
Variational AutoEncoderVariational AutoEncoder
Variational AutoEncoderKazuki Nitta
 
深層生成モデルを用いたマルチモーダルデータの半教師あり学習
深層生成モデルを用いたマルチモーダルデータの半教師あり学習深層生成モデルを用いたマルチモーダルデータの半教師あり学習
深層生成モデルを用いたマルチモーダルデータの半教師あり学習Masahiro Suzuki
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11matsuolab
 
Stochastic Variational Inference
Stochastic Variational InferenceStochastic Variational Inference
Stochastic Variational InferenceKaede Hayashi
 
TensorFlow XLAは、 中で何をやっているのか?
TensorFlow XLAは、 中で何をやっているのか?TensorFlow XLAは、 中で何をやっているのか?
TensorFlow XLAは、 中で何をやっているのか?Mr. Vengineer
 
CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算sleepy_yoshi
 
続わかりやすいパターン認識11章(11.1 - 11.4)
続わかりやすいパターン認識11章(11.1 - 11.4)続わかりやすいパターン認識11章(11.1 - 11.4)
続わかりやすいパターン認識11章(11.1 - 11.4)Nagi Teramo
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 
[DL輪読会]Object-Centric Learning with Slot Attention
[DL輪読会]Object-Centric Learning with Slot Attention[DL輪読会]Object-Centric Learning with Slot Attention
[DL輪読会]Object-Centric Learning with Slot AttentionDeep Learning JP
 
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 Ken'ichi Matsui
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定Akira Masuda
 
Proof summit 2017 for slideshare
Proof summit 2017 for slideshareProof summit 2017 for slideshare
Proof summit 2017 for slideshareKeisuke Yahata
 
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半Ohsawa Goodfellow
 
クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定Hiroshi Nakagawa
 

What's hot (20)

数式を(ちょっとしか)使わずに隠れマルコフモデル
数式を(ちょっとしか)使わずに隠れマルコフモデル数式を(ちょっとしか)使わずに隠れマルコフモデル
数式を(ちょっとしか)使わずに隠れマルコフモデル
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
 
階層ベイズとWAIC
階層ベイズとWAIC階層ベイズとWAIC
階層ベイズとWAIC
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
 
Variational AutoEncoder
Variational AutoEncoderVariational AutoEncoder
Variational AutoEncoder
 
深層生成モデルを用いたマルチモーダルデータの半教師あり学習
深層生成モデルを用いたマルチモーダルデータの半教師あり学習深層生成モデルを用いたマルチモーダルデータの半教師あり学習
深層生成モデルを用いたマルチモーダルデータの半教師あり学習
 
LDA入門
LDA入門LDA入門
LDA入門
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11
 
Stochastic Variational Inference
Stochastic Variational InferenceStochastic Variational Inference
Stochastic Variational Inference
 
TensorFlow XLAは、 中で何をやっているのか?
TensorFlow XLAは、 中で何をやっているのか?TensorFlow XLAは、 中で何をやっているのか?
TensorFlow XLAは、 中で何をやっているのか?
 
CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算
 
続わかりやすいパターン認識11章(11.1 - 11.4)
続わかりやすいパターン認識11章(11.1 - 11.4)続わかりやすいパターン認識11章(11.1 - 11.4)
続わかりやすいパターン認識11章(11.1 - 11.4)
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
[DL輪読会]Object-Centric Learning with Slot Attention
[DL輪読会]Object-Centric Learning with Slot Attention[DL輪読会]Object-Centric Learning with Slot Attention
[DL輪読会]Object-Centric Learning with Slot Attention
 
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
Proof summit 2017 for slideshare
Proof summit 2017 for slideshareProof summit 2017 for slideshare
Proof summit 2017 for slideshare
 
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
 
クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定
 

Similar to 13.2 隠れマルコフモデル

8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論sleepy_yoshi
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Wataru Kishimoto
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)Yukara Ikemiya
 
ウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタToshihisa Tanaka
 
Introduction to the particle filter
Introduction to the particle filterIntroduction to the particle filter
Introduction to the particle filterSatoshi Minakuchi
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布t2tarumi
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰sleipnir002
 
確率的主成分分析
確率的主成分分析確率的主成分分析
確率的主成分分析Mika Yoshimura
 
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Taiji Suzuki
 
複雑ネットワーク 第4章 古典的なグラフ
複雑ネットワーク 第4章 古典的なグラフ複雑ネットワーク 第4章 古典的なグラフ
複雑ネットワーク 第4章 古典的なグラフShintaro Takemura
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定t2tarumi
 
mathemaical_notation
mathemaical_notationmathemaical_notation
mathemaical_notationKenta Oono
 
グラフカットによる画像背景切り取り
グラフカットによる画像背景切り取りグラフカットによる画像背景切り取り
グラフカットによる画像背景切り取りcoil_kpc
 

Similar to 13.2 隠れマルコフモデル (20)

8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
 
Chapter9 2
Chapter9 2Chapter9 2
Chapter9 2
 
Re revenge chap03-1
Re revenge chap03-1Re revenge chap03-1
Re revenge chap03-1
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
 
PRML 8.4-8.4.3
PRML 8.4-8.4.3 PRML 8.4-8.4.3
PRML 8.4-8.4.3
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
ウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタ
 
Introduction to the particle filter
Introduction to the particle filterIntroduction to the particle filter
Introduction to the particle filter
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
確率的主成分分析
確率的主成分分析確率的主成分分析
確率的主成分分析
 
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Sparse estimation tutorial 2014
Sparse estimation tutorial 2014
 
Chapter11.2
Chapter11.2Chapter11.2
Chapter11.2
 
複雑ネットワーク 第4章 古典的なグラフ
複雑ネットワーク 第4章 古典的なグラフ複雑ネットワーク 第4章 古典的なグラフ
複雑ネットワーク 第4章 古典的なグラフ
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
PRML chapter7
PRML chapter7PRML chapter7
PRML chapter7
 
分布 isseing333
分布 isseing333分布 isseing333
分布 isseing333
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
 
mathemaical_notation
mathemaical_notationmathemaical_notation
mathemaical_notation
 
グラフカットによる画像背景切り取り
グラフカットによる画像背景切り取りグラフカットによる画像背景切り取り
グラフカットによる画像背景切り取り
 

More from show you

Iaas, paasと利用者
Iaas, paasと利用者Iaas, paasと利用者
Iaas, paasと利用者show you
 
Classification of Visualize Tool
Classification of Visualize ToolClassification of Visualize Tool
Classification of Visualize Toolshow you
 
An introduction of hue
An introduction of hueAn introduction of hue
An introduction of hueshow you
 
A survey of 2013 data science salary survey”
A survey of   2013 data science salary survey”A survey of   2013 data science salary survey”
A survey of 2013 data science salary survey”show you
 
二階堂愛と二階堂藍の違いについて
二階堂愛と二階堂藍の違いについて二階堂愛と二階堂藍の違いについて
二階堂愛と二階堂藍の違いについてshow you
 
Pycon tw 2013
Pycon tw 2013Pycon tw 2013
Pycon tw 2013show you
 
Mobageのhadoop活用環境と適用方法
Mobageのhadoop活用環境と適用方法Mobageのhadoop活用環境と適用方法
Mobageのhadoop活用環境と適用方法show you
 
aisatsu suruto tomodachiga popopoponnto hueruyo
aisatsu suruto tomodachiga popopoponnto hueruyoaisatsu suruto tomodachiga popopoponnto hueruyo
aisatsu suruto tomodachiga popopoponnto hueruyoshow you
 
plot beta dist
plot beta distplot beta dist
plot beta distshow you
 
SIG-WI2 twitterにおける、人工無脳との インタラクション
SIG-WI2 twitterにおける、人工無脳との インタラクションSIG-WI2 twitterにおける、人工無脳との インタラクション
SIG-WI2 twitterにおける、人工無脳との インタラクションshow you
 

More from show you (12)

Iaas, paasと利用者
Iaas, paasと利用者Iaas, paasと利用者
Iaas, paasと利用者
 
Classification of Visualize Tool
Classification of Visualize ToolClassification of Visualize Tool
Classification of Visualize Tool
 
An introduction of hue
An introduction of hueAn introduction of hue
An introduction of hue
 
A survey of 2013 data science salary survey”
A survey of   2013 data science salary survey”A survey of   2013 data science salary survey”
A survey of 2013 data science salary survey”
 
二階堂愛と二階堂藍の違いについて
二階堂愛と二階堂藍の違いについて二階堂愛と二階堂藍の違いについて
二階堂愛と二階堂藍の違いについて
 
Pycon tw 2013
Pycon tw 2013Pycon tw 2013
Pycon tw 2013
 
Mobageのhadoop活用環境と適用方法
Mobageのhadoop活用環境と適用方法Mobageのhadoop活用環境と適用方法
Mobageのhadoop活用環境と適用方法
 
aisatsu suruto tomodachiga popopoponnto hueruyo
aisatsu suruto tomodachiga popopoponnto hueruyoaisatsu suruto tomodachiga popopoponnto hueruyo
aisatsu suruto tomodachiga popopoponnto hueruyo
 
Yuka
YukaYuka
Yuka
 
3.4
3.43.4
3.4
 
plot beta dist
plot beta distplot beta dist
plot beta dist
 
SIG-WI2 twitterにおける、人工無脳との インタラクション
SIG-WI2 twitterにおける、人工無脳との インタラクションSIG-WI2 twitterにおける、人工無脳との インタラクション
SIG-WI2 twitterにおける、人工無脳との インタラクション
 

13.2 隠れマルコフモデル

  • 1. 1 3 .2 隠れマルコフモデル (Hidden Markov Model) 2010/7/17 showyou
  • 2. お詫び 1 3 .2 .1 も行う予定でしたが、1 3 .2 .1 を実装する には1 3 .2 .2 を理解しないとできないの で、nokunoさんにお願いしました
  • 3. 自己紹介 ● Hatena, Twitter: showyou ● ソフトウェアエンジニア(Webではない) ● Python, C++。Javaは読めるけどほとんど書けない ● 大学院では視線認識と手指認識を使ってテレビ の画面を操作する研究をしていた ● アプリケーション中心、認識部分は触れず ● Twitterで人工無脳作ってます(ha_ma, donsuke, yuka_)
  • 4. 隠れマルコフモデル(H M M )とは 下の図に示される状態空間モデルにおいて、潜在変数が離散な例 簡単にいうと  隠れ変数のマルコフ連鎖 一つの時刻について見ると、成分密度分布が過去の観測で選択された 成分に依存して選択されるように、混合分布モデルを拡張したもの  音声認識  自然言語モデル  オンライン手書き文字認識  タンパク質やD N A などの生物学的配列の解析 などに広く用いられている
  • 5. HMMの性質 ● 潜在変数は離散的な多項変数 zn は [ 1, 0, 0, .. ]のような形をとる ● p(zn)は直前の潜在変数p(zn-1)に依存 ● 潜在変数の条件付き分布は以下の形にかける K K p  z n∣z n−1 , A=∏ ∏ A z n−1, j z nk jk −13.7 k=1 j=1 A:遷移行列を要素に持つ数表 Aj kはp(znk = 1|zn-1,j = 1) 0≦Ajk ≦ 1, ΣkAjk=1 A はK (K -1 )個の独立なパラメータ
  • 6. 最初の潜在ノードz_1 だけ親ノードを持たず特 別である ● Πk = p(z1k=1)を持つ確率のベクトルπ で表され る周辺分布p(z1)を持つ K p  z 1∣=∏  −13.8 z1k k k =1 ただしΣk πk=1
  • 7. 遷移行列を自分なりに書いてみた Akj = p(znk = 1| zn-1,j =1) A31 = p(zn3| zn-1,1) j=3, k=1しか発生しない場合、 [ ] 0 0 p  z n3∣z n−1,1 A= 0 0 0 0 0 0 zn-1 = [ 0, 0, 1 ]^T zn = [ 1, 0, 0 ]^T 横が現在取ってる状態 縦が前とってる状態 表Aは状態間の遷移確率を表している
  • 8. 遷移行列はノードを状態とする状態遷移図(下 左)で表されることもある ● ただしこの図は複数の変数ではなく、一つの変数 の状態を表している ● 状態遷移図を時間方向に展開すると格子図(ト レリス図, 下右)となる
  • 9. 観測変数p(xn|zn,Φ)の定義 K p  x n∣z n , =∏ p  x n∣k  −13.9 z nk k =1 ● Φ:分布を支配するパラメータの集合 ● p(xn|zn,Φ)は出力確率と呼ばれるK p x n∣z n , = ∏ N  x n∣k ,  k  z nk ● xが連続:(9.11)式 k =1 xが離散:条件付き確率表 で与えられる
  • 10. 均一なモデルについて考えてみる ● 均一なモデル= ● 潜在変数を支配する 全ての条件付き分布が 同じパラメータA を共有 ● 全ての出力分布が同一のパラメータΦ を共有 ● このときの潜在変数と観測変数の同時分布 N N p  X , Z∣= p  z 1∣[ ∏ p  z n∣z n−1 , A] ∏ p  x m∣z m ,  n=2 m=1 −13.10 
  • 11. 生成モデルから見たH M M 混合ガウス分布 HMM π1 π2 z1=j z2=1 z1=1 πk z1=2 z2=2 z1 z2 x1 x2 x1
  • 13. left-to-rig ht H M M ● A のk<jとなるA _jkが0 のH M M ● 多くの場合状態j=1から 始まる ● k>j+ΔならA_jk=0にな る(大きな変化を避け る)
  • 14. left-rig htの例:オンライン手書き文字 ● 数字2 の画像が4 5 個 ● K = 1 6 , 1 6 種類の角度に対 応 ● 出力は角度と決まった長さ を持つ線分 ● 出力分布は状態に角度を関 連付けた1 6 x1 6 の表 ● 同じ状態か+ 1 になる遷移 以外は遷移確率が0
  • 15. H M M の特徴 時間軸上での局所的な伸縮に対して、ある程度 まで普遍性を保つ ● オンライン手書き文字:形状(尖点・輪の位置) ● 音声認識:発生速度の自然なゆらぎ