基本要素
HMM三大问题
给定观测序列 \(O=O_1O_2...O_T\),模型 \(\lambda (A,B,\pi)\),计算 \(P(O|\lambda)\),即计算观测序列的几率spa
给定观测序列 \(O=O_1O_2...O_T\),模型 \(\lambda (A,B,\pi)\),找到对应的状态序列 \(S\).net
给定观测序列 \(O=O_1O_2...O_T\),找到模型参数 \(\lambda (A,B,\pi)\),以最大化 \(P(O|\lambda)\),code
几率计算问题
给定模型 \(\lambda\) 和观测序列 \(O\),如何计算\(P(O| \lambda)\)?htm
暴力枚举每个可能的状态序列 \(S\)blog
-
对每个给定的状态序列
\[P(O|S,\lambda) = \prod^T_{t=1} P(O_t|s_t,\lambda) =\prod^T_{t=1} b_{s_tO_t} \]
-
一个状态序列的产生几率
\[P(S|\lambda) = P(s_1)\prod^T_{t=2}P(s_t|s_{t-1})=\pi_1\prod^T_{t=2}a_{s_{t-1}s_t} \]
-
联合几率
\[P(O,S|\lambda) = P(S|\lambda)P(O|S,\lambda) =\pi_1\prod^T_{t=2}a_{s_{t-1}s_t}\prod^T_{t=1} b_{s_tO_t} \]
-
考虑全部的状态序列
\[P(O|\lambda)=\sum_S\pi_1b_{s_1O_1}\prod^T_{t=2}a_{s_{t-1}s_t}b_{s_tO_t} \]
\(O\) 可能由任意一个状态获得,因此须要将每一个状态的可能性相加。
这样作什么问题?时间复杂度高达 \(O(2TN^T)\)。每一个序列须要计算 \(2T\) 次,一共 \(N^T\) 个序列。
前向算法
在时刻 \(t\),状态为 \(i\) 时,前面的时刻观测到 \(O_1,O_2, ..., O_t\) 的几率,记为 \(\alpha _i(t)\) :
\[\alpha_{i}(t)=P\left(O_{1}, O_{2}, \ldots O_{t}, s_{t}=i | \lambda\right) \]
当 \(t=1\) 时,输出为 \(O_1\),假设有三个状态,\(O_1\) 多是任意一个状态发出,即
\[P(O_1|\lambda) = \pi_1b_1(O_1)+\pi_2b_2(O_1)+\pi_2b_3(O_1) = \alpha_1(1)+\alpha_2(1)+\alpha_3(1) \]

当 \(t=2\) 时,输出为 \(O_1O_2\) ,\(O_2\) 可能由任一个状态发出,同时产生 \(O_2\) 对应的状态能够由 \(t=1\) 时刻任意一个状态转移获得。假设 \(O_2\) 由状态 1
发出,以下图

\[P(O_1O_2,s_2=q_1|\lambda) = \pi_1b_1(O_1)a_{11}b_1(O_2)+\pi_2b_2(O_1)a_{21}b_1(O_2)+\pi_2b_3(O_1)a_{31}b_1(O_2) \\=\bold{\alpha_1(1)}a_{11}b_1(O_2)+\bold{\alpha_2(1)}a_{21}b_1(O_2)+\bold{\alpha_3(1)}a_{31}b_1(O_2) = \bold{\alpha_1(2)} \]
同理可得 \(\alpha_2(2),\alpha_3(2)\)
\[\bold{\alpha_2(2)} = P(O_1O_2,s_2=q_2|\lambda) =\bold{\alpha_1(1)}a_{12}b_1(O_2)+\bold{\alpha_2(1)}a_{22}b_1(O_2)+\bold{\alpha_3(1)}a_{32}b_1(O_2)\\\bold{\alpha_3(2)} = P(O_1O_2,s_2=q_3|\lambda) =\bold{\alpha_1(1)}a_{13}b_1(O_2)+\bold{\alpha_2(1)}a_{23}b_1(O_2)+\bold{\alpha_3(1)}a_{33}b_1(O_2) \]
因此
\[P(O_1O_2|\lambda) =P(O_1O_2,s_2=q_1|\lambda)+ P(O_1O_2,s_2=q_2|\lambda) +P(O_1O_2,s_2=q_3|\lambda)\\= \alpha_1(2)+\alpha_2(2)+\alpha_3(2) \]
因此前向算法过程以下:
step1:初始化 \(\alpha_i(1)= \pi_i*b_i(O_1)\)
step2:计算 \(\alpha(t) = (\sum^{N}_{i=1} \alpha_i(t-1)a_{ij})b_j(O_{t})\)
step3:\(P(O|\lambda) = \sum^N_{i=1}\alpha_i(t)\)
相比暴力法,时间复杂度下降了吗?
当前时刻有 \(N\) 个状态,每一个状态可能由前一时刻 \(N\) 个状态中的任意一个转移获得,因此单个时刻的时间复杂度为 \(O(N^2)\),总时间复杂度为 \(O(TN^2)\)
后向算法
在时刻 \(t\),状态为 \(i\) 时,观测到 \(O_{t+1},O_{t+2}, ..., O_T\) 的几率,记为 \(\beta _i(t)\) :
\[\beta_{i}(t)=P\left(O_{t+1},O_{t+2}, ..., O_T | s_{t}=i, \lambda\right) \]
当 \(t=T\) 时,因为 \(T\) 时刻以后为空,没有观测,因此 \(\beta_i(t)=1\)
当 \(t = T-1\) 时,观测 \(O_T\) ,\(O_T\) 可能由任意一个状态产生
\[\beta_i(T-1) = P(O_T|s_{t}=i,\lambda) = a_{i1}b_1(O_T)\beta_1(T)+a_{i2}b_2(O_T)\beta_2(T)+a_{i3}b_3(O_T)\beta_3(T) \]

当 \(t=1\) 时,观测为 \(O_{2},O_{3}, ..., O_T\)
\[\begin{aligned}\beta_1(1) &= P(O_{2},O_{3}, ..., O_T|s_1=1,\lambda)\\&=a_{11}b_1(O_2)\beta_1(2)+a_{12}b_2(O_2)\beta_2(2)+a_{13}b_3(O_2)\beta_3(2)\\\quad\\\beta_2(1) &= P(O_{2},O_{3}, ..., O_T|s_1=2,\lambda)\\&=a_{21}b_1(O_2)\beta_1(2)+a_{22}b_2(O_2)\beta_2(2)+a_{23}b_3(O_2)\beta_3(2)\\\quad\\\beta_3(1) &=P(O_{2},O_{3}, ..., O_T|s_1=3,\lambda)\\&=a_{31}b_1(O_2)\beta_1(2)+a_{32}b_2(O_2)\beta_2(2)+a_{33}b_3(O_2)\beta_3(2)\end{aligned} \]
因此
\[P(O_{2},O_{3}, ..., O_T|\lambda) = \beta_1(1)+\beta_2(1)+\beta_3(1) \]
后向算法过程以下:
step1:初始化 \(\beta_i(T=1)\)
step2:计算 \(\beta_i(t) = \sum^N_{j=1}a_{ij}b_j(O_{t+1})\beta_j(t+1)\)
step3:\(P(O|\lambda) = \sum^N_{i=1}\pi_ib_i(O_1)\beta_i(1)\)
前向-后向算法

回顾前向、后向变量:
- \(a_i(t)\) 时刻 \(t\),状态为 \(i\) ,观测序列为 \(O_1,O_2, ..., O_t\) 的几率
- \(\beta_i(t)\) 时刻 \(t\),状态为 \(i\) ,观测序列为 \(O_{t+1},O_{t+2}, ..., O_T\) 的几率
\[\begin{aligned}P(O,s_t=i|\lambda)&= P(O_1,O_2, ..., O_T,s_t=i|\lambda)\\&= P(O_1,O_2, ..., O_t,s_t=i,O_{t+1},O_{t+2}, ..., O_T|\lambda)\\&= P(O_1,O_2, ..., O_t,s_t=i|\lambda)*P(O_{t+1},O_{t+2}, ..., O_T|O_1,O_2, ..., O_t,s_t=i,\lambda) \\&= P(O_1,O_2, ..., O_t,s_t=i|\lambda)*P(O_{t+1},O_{t+2}, ..., O_T,s_t=i|\lambda)\\&= a_i(t)*\beta_i(t)\end{aligned} \]
即在给定的状态序列中,\(t\) 时刻状态为 \(i\) 的几率。
使用先后向算法能够计算隐状态,记 \(\gamma_i(t) = P(s_t=i|O,\lambda)\) 表示时刻 \(t\) 位于隐状态 \(i\) 的几率
\[P\left(s_{t}=i, O | \lambda\right)=\alpha_{i}(t) \beta_{i}(t) \]
\[\begin{aligned}\gamma_{i}(t)&=P\left(s_{t}={i} | O, \lambda\right)=\frac{P\left(s_{t}={i}, O | \lambda\right)}{P(O | \lambda)} \\&=\frac{\alpha_{i}(t) \beta_{i}(t)}{P(O | \lambda)}=\frac{\alpha_{i}(t) \beta_{i}(t)}{\sum_{i=1}^{N} \alpha_{i}(t) \beta_{i}(t)}\end{aligned} \]
未完待续。。。
Decoder
维特比算法
维特比算法的基础能够归纳为下面三点(来源于吴军:数学之美):
一、若是几率最大的路径通过篱笆网络的某点,则从开始点到该点的子路径也必定是从开始到该点路径中几率最大的。
二、假定第i时刻有k个状态,从开始到i时刻的k个状态有k条最短路径,而最终的最短路径必然通过其中的一条。
三、根据上述性质,在计算第i+1状态的最短路径时,只须要考虑从开始到当前的k个状态值的最短路径和当前状态值到第i+1状态值的最短路径便可,如求t=3时的最短路径,等于求t=2时的全部状态结点x2i的最短路径加上t=2到t=3的各节点的最短路径。
references:
[1] https://www.cs.sjsu.edu/~stamp/RUA/HMM.pdf
[2] https://www.cnblogs.com/skyme/p/4651A331.html
[3] http://www.javashuo.com/article/p-wmvxlnjq-cn.html
[4] https://hmmlearn.readthedocs.io/en/latest/tutorial.html
[5] https://blog.csdn.net/xueyingxue001/article/details/52396494
[6] https://blog.csdn.net/hudashi/java/article/details/87875259
[7] https://www.zhihu.com/question/20136144
[8] http://www.javashuo.com/article/p-asqtxiud-mh.html
[9] https://blog.csdn.net/u014688145/article/details/53046765