隐马尔科夫模型HMM(二)前向后向算法评估观察序列几率 隐马尔科夫模型HMM(三)鲍姆-韦尔奇算法求解HMM参数 隐马尔科夫模型HMM(四)维特比算法解码隐藏状态序列 隐马尔科夫模型HMM(一)HMM

    隐马尔科夫模型HMM(一)HMM模型html

    隐马尔科夫模型HMM(二)前向后向算法评估观察序列几率算法

    隐马尔科夫模型HMM(三)鲍姆-韦尔奇算法求解HMM参数post

    隐马尔科夫模型HMM(四)维特比算法解码隐藏状态序列url

    在隐马尔科夫模型HMM(一)HMM模型中,咱们讲到了HMM模型的基础知识和HMM的三个基本问题,本篇咱们就关注于HMM第一个基本问题的解决方法,即已知模型和观测序列,求观测序列出现的几率。htm

1. 回顾HMM问题一:求观测序列的几率

    首先咱们回顾下HMM模型的问题一。这个问题是这样的。咱们已知HMM模型的参数$\lambda = (A, B, \Pi)$。其中$A$是隐藏状态转移几率的矩阵,$B$是观测状态生成几率的矩阵, $\Pi$是隐藏状态的初始几率分布。同时咱们也已经获得了观测序列$O =\{o_1,o_2,...o_T\}$,如今咱们要求观测序列$O$在模型$\lambda$下出现的条件几率$P(O|\lambda)$。blog

    乍一看,这个问题很简单。由于咱们知道全部的隐藏状态之间的转移几率和全部从隐藏状态到观测状态生成几率,那么咱们是能够暴力求解的。get

    咱们能够列举出全部可能出现的长度为$T$的隐藏序列$I = \{i_1,i_2,...,i_T\}$,分布求出这些隐藏序列与观测序列$O =\{o_1,o_2,...o_T\}$的联合几率分布$P(O,I|\lambda)$,这样咱们就能够很容易的求出边缘分布$P(O|\lambda)$了。it

    具体暴力求解的方法是这样的:首先,任意一个隐藏序列$I = \{i_1,i_2,...,i_T\}$出现的几率是:$$P(I|\lambda) = \pi_{i_1} a_{i_1i_2} a_{i_2i_3}... a_{i_{T-1}\;\;i_T}$$class

    对于固定的状态序列$I = \{i_1,i_2,...,i_T\}$,咱们要求的观察序列$O =\{o_1,o_2,...o_T\}$出现的几率是:$$P(O|I, \lambda) = b_{i_1}(o_1)b_{i_2}(o_2)...b_{i_T}(o_T)$$基础

    则$O$和$I$联合出现的几率是:$$P(O,I|\lambda) = P(I|\lambda)P(O|I, \lambda) = \pi_{i_1}b_{i_1}(o_1)a_{i_1i_2}b_{i_2}(o_2)...a_{i_{T-1}\;\;i_T}b_{i_T}(o_T)$$

    而后求边缘几率分布,便可获得观测序列$O$在模型$\lambda$下出现的条件几率$P(O|\lambda)$:$$P(O|\lambda) = \sum\limits_{I}P(O,I|\lambda)  = \sum\limits_{i_1,i_2,...i_T}\pi_{i_1}b_{i_1}(o_1)a_{i_1i_2}b_{i_2}(o_2)...a_{i_{T-1}\;\;i_T}b_{i_T}(o_T)$$

    虽然上述方法有效,可是若是咱们的隐藏状态数$N$很是多的那就麻烦了,此时咱们预测状态有$N^T$种组合,算法的时间复杂度是$O(TN^T)$阶的。所以对于一些隐藏状态数极少的模型,咱们能够用暴力求解法来获得观测序列出现的几率,可是若是隐藏状态多,则上述算法太耗时,咱们须要寻找其余简洁的算法。

    前向后向算法就是来帮助咱们在较低的时间复杂度状况下求解这个问题的。

2. 用前向算法求HMM观测序列的几率

    前向后向算法是前向算法和后向算法的统称,这两个算法均可以用来求HMM观测序列的几率。咱们先来看看前向算法是如何求解这个问题的。

    前向算法本质上属于动态规划的算法,也就是咱们要经过找到局部状态递推的公式,这样一步步的从子问题的最优解拓展到整个问题的最优解。

    在前向算法中,经过定义“前向几率”来定义动态规划的这个局部状态。什么是前向几率呢, 其实定义很简单:定义时刻$t$时隐藏状态为$q_i$, 观测状态的序列为$o_1,o_2,...o_t$的几率为前向几率。记为:$$\alpha_t(i) = P(o_1,o_2,...o_t, i_t =q_i | \lambda)$$

    既然是动态规划,咱们就要递推了,如今咱们假设咱们已经找到了在时刻$t$时各个隐藏状态的前向几率,如今咱们须要递推出时刻$t+1$时各个隐藏状态的前向几率。

    从下图能够看出,咱们能够基于时刻$t$时各个隐藏状态的前向几率,再乘以对应的状态转移几率,即$\alpha_t(j)a_{ji}$就是在时刻$t$观测到$o_1,o_2,...o_t$,而且时刻$t$隐藏状态$q_j$, 时刻$t+1$隐藏状态$q_i$的几率。若是将想下面全部的线对应的几率求和,即$\sum\limits_{j=1}^N\alpha_t(j)a_{ji}$就是在时刻$t$观测到$o_1,o_2,...o_t$,而且时刻$t+1$隐藏状态$q_i$的几率。继续一步,因为观测状态$o_{t+1}$只依赖于$t+1$时刻隐藏状态$q_i$, 这样$[\sum\limits_{j=1}^N\alpha_t(j)a_{ji}]b_i(o_{t+1})$就是在在时刻$t+1$观测到$o_1,o_2,...o_t,o_{t+1}$,而且时刻$t+1$隐藏状态$q_i$的几率。而这个几率,偏偏就是时刻$t+1$对应的隐藏状态$i$的前向几率,这样咱们获得了前向几率的递推关系式以下:$$\alpha_{t+1}(i) = \Big[\sum\limits_{j=1}^N\alpha_t(j)a_{ji}\Big]b_i(o_{t+1})$$

    咱们的动态规划从时刻1开始,到时刻$T$结束,因为$\alpha_T(i)$表示在时刻$T$观测序列为$o_1,o_2,...o_T$,而且时刻$T$隐藏状态$q_i$的几率,咱们只要将全部隐藏状态对应的几率相加,即$\sum\limits_{i=1}^N\alpha_T(i)$就获得了在时刻$T$观测序列为$o_1,o_2,...o_T$的几率。

    下面总结下前向算法。

    输入:HMM模型$\lambda = (A, B, \Pi)$,观测序列$O=(o_1,o_2,...o_T)$

    输出:观测序列几率$P(O|\lambda)$

    1) 计算时刻1的各个隐藏状态前向几率:$$\alpha_1(i) = \pi_ib_i(o_1),\; i=1,2,...N$$

    2) 递推时刻$2,3,...T$时刻的前向几率:$$\alpha_{t+1}(i) = \Big[\sum\limits_{j=1}^N\alpha_t(j)a_{ji}\Big]b_i(o_{t+1}),\; i=1,2,...N$$

    3) 计算最终结果:$$P(O|\lambda) = \sum\limits_{i=1}^N\alpha_T(i)$$

    从递推公式能够看出,咱们的算法时间复杂度是$O(TN^2)$,比暴力解法的时间复杂度$O(TN^T)$少了几个数量级。

3. HMM前向算法求解实例

    这里咱们用隐马尔科夫模型HMM(一)HMM模型中盒子与球的例子来显示前向几率的计算。

    咱们的观察集合是:$$V=\{红,白\},M=2$$

    咱们的状态集合是:$$Q =\{盒子1,盒子2,盒子3\}, N=3 $$

    而观察序列和状态序列的长度为3.

    初始状态分布为:$$\Pi = (0.2,0.4,0.4)^T$$

    状态转移几率分布矩阵为:

$$A = \left( \begin{array} {ccc} 0.5 & 0.2 & 0.3 \\ 0.3 & 0.5 & 0.2 \\ 0.2 & 0.3 &0.5 \end{array} \right) $$

     观测状态几率矩阵为:

$$B = \left( \begin{array} {ccc} 0.5 & 0.5 \\ 0.4 & 0.6 \\ 0.7 & 0.3 \end{array} \right) $$

    球的颜色的观测序列:$$O=\{红,白,红\}$$

    按照咱们上一节的前向算法。首先计算时刻1三个状态的前向几率:

    时刻1是红色球,隐藏状态是盒子1的几率为:$$\alpha_1(1) = \pi_1b_1(o_1) = 0.2 \times 0.5 = 0.1$$

    隐藏状态是盒子2的几率为:$$\alpha_1(2) = \pi_2b_2(o_1) = 0.4 \times 0.4 = 0.16$$

    隐藏状态是盒子3的几率为:$$\alpha_1(3) = \pi_3b_3(o_1) = 0.4 \times 0.7 = 0.28$$

    如今咱们能够开始递推了,首先递推时刻2三个状态的前向几率:

    时刻2是白色球,隐藏状态是盒子1的几率为:$$\alpha_2(1) =  \Big[\sum\limits_{i=1}^3\alpha_1(i)a_{i1}\Big]b_1(o_2) = [0.1*0.5+0.16*0.3+0.28*0.2 ] \times 0.5 = 0.077$$

    隐藏状态是盒子2的几率为:$$\alpha_2(2) =  \Big[\sum\limits_{i=1}^3\alpha_1(i)a_{i2}\Big]b_2(o_2) = [0.1*0.2+0.16*0.5+0.28*0.3 ] \times 0.6 = 0.1104$$

    隐藏状态是盒子3的几率为:$$\alpha_2(3) =  \Big[\sum\limits_{i=1}^3\alpha_1(i)a_{i3}\Big]b_3(o_2) = [0.1*0.3+0.16*0.2+0.28*0.5 ] \times 0.3 = 0.0606$$

    继续递推,如今咱们递推时刻3三个状态的前向几率:

    时刻3是红色球,隐藏状态是盒子1的几率为:$$\alpha_3(1) =  \Big[\sum\limits_{i=1}^3\alpha_2(i)a_{i1}\Big]b_1(o_3) = [0.077*0.5+0.1104*0.3+0.0606*0.2 ] \times 0.5 = 0.04187$$

    隐藏状态是盒子2的几率为:$$\alpha_3(2) =  \Big[\sum\limits_{i=1}^3\alpha_2(i)a_{i2}\Big]b_2(o_3) = [0.077*0.2+0.1104*0.5+0.0606*0.3 ] \times 0.4 = 0.03551$$

    隐藏状态是盒子3的几率为:$$\alpha_3(3) =  \Big[\sum\limits_{i=1}^3\alpha_3(i)a_{i3}\Big]b_3(o_3) = [0.077*0.3+0.1104*0.2+0.0606*0.5 ] \times 0.7 = 0.05284$$

    最终咱们求出观测序列:$O=\{红,白,红\}$的几率为:$$P(O|\lambda) = \sum\limits_{i=1}^3\alpha_3(i) = 0.13022 $$

4. 用后向算法求HMM观测序列的几率

    熟悉了用前向算法求HMM观测序列的几率,如今咱们再来看看怎么用后向算法求HMM观测序列的几率。

    后向算法和前向算法很是相似,都是用的动态规划,惟一的区别是选择的局部状态不一样,后向算法用的是“后向几率”,那么后向几率是如何定义的呢?

    定义时刻$t$时隐藏状态为$q_i$, 从时刻$t+1$到最后时刻$T$的观测状态的序列为$o_{t+1},o_{t+2},...o_T$的几率为后向几率。记为:$$\beta_t(i) = P(o_{t+1},o_{t+2},...o_T| i_t =q_i , \lambda)$$

    后向几率的动态规划递推公式和前向几率是相反的。如今咱们假设咱们已经找到了在时刻$t+1$时各个隐藏状态的后向几率$\beta_{t+1}(j)$,如今咱们须要递推出时刻$t$时各个隐藏状态的后向几率。以下图,咱们能够计算出观测状态的序列为$o_{t+2},o_{t+3},...o_T$, $t$时隐藏状态为$q_i$, 时刻$t+1$隐藏状态为$q_j$的几率为$a_{ij}\beta_{t+1}(j)$, 接着能够获得观测状态的序列为$o_{t+1},o_{t+2},...o_T$, $t$时隐藏状态为$q_i$, 时刻$t+1$隐藏状态为$q_j$的几率为$a_{ij}b_j(o_{t+1})\beta_{t+1}(j)$, 则把下面全部线对应的几率加起来,咱们能够获得观测状态的序列为$o_{t+1},o_{t+2},...o_T$, $t$时隐藏状态为$q_i$的几率为$\sum\limits_{j=1}^{N}a_{ij}b_j(o_{t+1})\beta_{t+1}(j)$,这个几率即为时刻$t$的后向几率。

    这样咱们获得了后向几率的递推关系式以下:$$\beta_{t}(i) = \sum\limits_{j=1}^{N}a_{ij}b_j(o_{t+1})\beta_{t+1}(j)$$

    如今咱们总结下后向算法的流程,注意下和前向算法的相同点和不一样点:

    输入:HMM模型$\lambda = (A, B, \Pi)$,观测序列$O=(o_1,o_2,...o_T)$

    输出:观测序列几率$P(O|\lambda)$

    1) 初始化时刻$T$的各个隐藏状态后向几率:$$\beta_T(i) = 1,\; i=1,2,...N$$

    2) 递推时刻$T-1,T-2,...1$时刻的后向几率:$$\beta_{t}(i) = \sum\limits_{j=1}^{N}a_{ij}b_j(o_{t+1})\beta_{t+1}(j),\; i=1,2,...N$$

    3) 计算最终结果:$$P(O|\lambda) = \sum\limits_{i=1}^N\pi_ib_i(o_1)\beta_1(i)$$

    此时咱们的算法时间复杂度仍然是$O(TN^2)$。

5. HMM经常使用几率的计算

    利用前向几率和后向几率,咱们能够计算出HMM中单个状态和两个状态的几率公式。

    1)给定模型$\lambda$和观测序列$O$,在时刻$t$处于状态$q_i$的几率记为:$$\gamma_t(i) = P(i_t = q_i | O,\lambda) = \frac{P(i_t = q_i ,O|\lambda)}{P(O|\lambda)} $$

    利用前向几率和后向几率的定义可知:$$P(i_t = q_i ,O|\lambda) = \alpha_t(i)\beta_t(i)$$

    因而咱们获得:$$\gamma_t(i) = \frac{ \alpha_t(i)\beta_t(i)}{\sum\limits_{j=1}^N \alpha_t(j)\beta_t(j)}$$

    2)给定模型$\lambda$和观测序列$O$,在时刻$t$处于状态$q_i$,且时刻$t+1$处于状态$q_j$的几率记为:$$\xi_t(i,j) = P(i_t = q_i, i_{t+1}=q_j | O,\lambda) = \frac{ P(i_t = q_i, i_{t+1}=q_j , O|\lambda)}{P(O|\lambda)} $$

    而$P(i_t = q_i, i_{t+1}=q_j , O|\lambda)$能够由前向后向几率来表示为:$$P(i_t = q_i, i_{t+1}=q_j , O|\lambda) = \alpha_t(i)a_{ij}b_j(o_{t+1})\beta_{t+1}(j)$$

    从而最终咱们获得$\xi_t(i,j)$的表达式以下:$$\xi_t(i,j) = \frac{\alpha_t(i)a_{ij}b_j(o_{t+1})\beta_{t+1}(j)}{\sum\limits_{r=1}^N\sum\limits_{s=1}^N\alpha_t(r)a_{rs}b_s(o_{t+1})\beta_{t+1}(s)}$$

     3) 将$\gamma_t(i)$和$\xi_t(i,j)$在各个时刻$t$求和,能够获得:

    在观测序列$O$下状态$i$出现的指望值$\sum\limits_{t=1}^T\gamma_t(i)$

    在观测序列$O$下由状态$i$转移的指望值$\sum\limits_{t=1}^{T-1}\gamma_t(i)$

    在观测序列$O$下由状态$i$转移到状态$j$的指望值$\sum\limits_{t=1}^{T-1}\xi_t(i,j)$

    上面这些经常使用的几率值在求解HMM问题二,即求解HMM模型参数的时候须要用到。咱们在这个系列的第三篇来讨论求解HMM参数的问题和解法。

 

(欢迎转载,转载请注明出处。欢迎沟通交流: liujianping-ok@163.com) 

相关文章
相关标签/搜索