相信你们都看过上一节我讲得贝叶斯网络,都明白了几率图模型是怎样构造的,若是如今还没明白,请看我上一节的总结:贝叶斯网络git
这一节咱们重点来说一下马尔可夫,正如题目所示,看了会一脸蒙蔽,好在咱们会一点一点的来解释上面的概念,请你们按照顺序往下看就会彻底弄明白了,这里我给一个通俗易懂的定义,后面咱们再来一个个详解。github
如下共分六点说明这些概念,分红条目只是方便边阅读边思考,这6点是依次递进的,不要跳跃着看。面试
马尔可夫过程(Markov process)是一类随机过程。它的原始模型马尔可夫链,由俄国数学家A.A.马尔可夫于1907年提出。该过程具备以下特性:在已知目前状态(如今)的条件下,它将来的演变(未来)不依赖于它以往的演变 (过去 )。例如森林中动物头数的变化构成——马尔可夫过程。在现实世界中,有不少过程都是马尔可夫过程,如液体中微粒所做的布朗运动、传染病受感染的人数、车站的候车人数等,均可视为马尔可夫过程。算法
每一个状态的转移只依赖于以前的n个状态,这个过程被称为1个n阶的模型,其中n是影响转移状态的数目。最简单的马尔可夫过程就是一阶过程,每个状态的转移只依赖于其以前的那一个状态,这个也叫做马尔可夫性质。用数学表达式表示就是下面的样子:网络
假设这个模型的每一个状态都只依赖于以前的状态,这个假设被称为马尔科夫假设,这个假设能够大大的简化这个问题。显然,这个假设多是一个很是糟糕的假设,致使不少重要的信息都丢失了。dom
\[P(X_{n+1}|X_1=x_1,X_2=x_2,...,X_n=x_n)=P(X_{n+1}=x|X_n=x_n)\]函数
假设天气服从马尔可夫链:工具
从上面这幅图能够看出:学习
晴 | 阴 | |
---|---|---|
晴 | 0.9 | 0,1 |
阴 | 0.5 | 0.5 |
由上表咱们能够获得马尔可夫链的状态转移矩阵:spa
所以,一阶马尔可夫过程定义了如下三个部分:
马尔可夫模型(Markov Model)是一种统计模型,普遍应用在语音识别,词性自动标注,音字转换,几率文法等各个天然语言处理等应用领域。通过长期发展,尤为是在语音识别中的成功应用,使它成为一种通用的统计工具。到目前为止,它一直被认为是实现快速精确的语音识别系统的最成功的方法。
在某些状况下马尔科夫过程不足以描述咱们但愿发现的模式。回到以前那个天气的例子,一个隐居的人可能不能直观的观察到天气的状况,可是有一些海藻。民间的传说告诉咱们海藻的状态在某种几率上是和天气的状况相关的。在这种状况下咱们有两个状态集合,一个能够观察到的状态集合(海藻的状态)和一个隐藏的状态(天气的情况)。咱们但愿能找到一个算法能够根据海藻的情况和马尔科夫假设来预测天气的情况。
而这个算法就叫作隐马尔可夫模型(HMM)。
隐马尔可夫模型 (Hidden Markov Model) 是一种统计模型,用来描述一个含有隐含未知参数的马尔可夫过程。它是结构最简单的动态贝叶斯网,这是一种著名的有向图模型,主要用于时序数据建模,在语音识别、天然语言处理等领域有普遍应用。
前两个问题是模式识别的问题:1) 根据隐马尔科夫模型获得一个可观察状态序列的几率(评价);2) 找到一个隐藏状态的序列使得这个序列产生一个可观察状态序列的几率最大(解码)。第三个问题就是根据一个能够观察到的状态序列集产生一个隐马尔科夫模型(学习)。
对应的三大问题解法:
下面咱们以一个场景来讲明这些问题的解法究竟是什么?
小明如今有三天的假期,他为了打发时间,能够在每一天中选择三件事情来作,这三件事情分别是散步、购物、打扫卫生(对应着可观测序列),但是在生活中咱们所作的决定通常都受到天气的影响,可能晴天的时候想要去购物或者散步,可能下雨天的时候不想出门,留在家里打扫卫生。而天气(晴天、下雨天)就属于隐藏状态,用一幅几率图来表示这一马尔可夫过程:
那么,咱们提出三个问题,分别对应马尔可夫的三大问题:
下面咱们就依据这个场景来一一解答这些问题。
遍历算法:
这个是最简单的算法了,假设第一天(T=1 时刻)是晴天,想要购物,那么就把图上的对应几率相乘就可以获得了。
次日(T=2 时刻)要作的事情,在第一天的几率基础上乘上次日的几率,依次类推,最终获得这三天(T=3 时刻)所要作的事情的几率值,这就是遍历算法,简单而又粗暴。但问题是用遍历算法的复杂度会随着观测序列和隐藏状态的增长而成指数级增加。
复杂度为:\(2TN^T\)
因而就有了第二种算法
前向算法:
细心的读者已经发现了,第二步中要求的几率能够在第一步的基础上进行,一样的,第三步也会依赖于第二步的计算结果。那么这样作就可以节省不少计算环节,相似于动态规划。
这种算法的复杂度为:\(N^2T\)
后向算法
跟前向算法相反,咱们知道总的几率确定是1,那么B_t=1,也就是最后一个时刻的几率合为1,先计算前三天的各类可能的几率,在计算前两天、前一天的数据,跟前向算法相反的计算路径。
维特比算法(Viterbi)
提及安德鲁·维特比(Andrew Viterbi),通讯行业以外的人可能知道他的并很少,不过通讯行业的从业者大多知道以他的名字命名的维特比算法(ViterbiAlgorithm)。维特比算法是现代数字通讯中最经常使用的算法,同时也是不少天然语言处理采用的解码算法。能够绝不夸张地讲,维特比是对咱们今天的生活影响力最大的科学家之一,由于基于CDMA的3G移动通讯标准主要就是他和厄文·雅各布(Irwin Mark Jacobs)创办的高通公司(Qualcomm)制定的,而且高通公司在4G时代依然引领移动通讯的发展。
维特比算法是一个特殊但应用最广的动态规划算法。利用动态规划,能够解决任何一个图中的最短路径问题。而维特比算法是针对一个特殊的图—篱笆网络(Lattice)的有向图最短路径问题而提出的。它之因此重要,是由于凡是使用隐含马尔可夫模型描述的问题均可以用它来解码,包括今天的数字通讯、语音识别、机器翻译、拼音转汉字、分词等。
维特比算法通常用于模式识别,经过观测数据来反推出隐藏状态,下面一步步讲解这个算法。
由于是要根据观测数据来反推,因此这里要进行一个假设,假设这三天所作的行为分别是:散步、购物、打扫卫生,那么咱们要求的是这三天的天气(路径)分别是什么。
初始计算第一天下雨和第一天晴天去散步的几率值:
\(\bigtriangleup_1(R)\) 表示第一天下雨的几率
\(\pi_R\) 表示中间的状态(下雨)s几率
\(b_R(O_1=w)\) 表示下雨而且散步的几率
\(a_{R-R}\) 表示下雨天到下雨天的几率
\(\bigtriangleup_1(R)=\pi_R*b_R(O_1=w)=0.6*0.1=0.06\)
\(\bigtriangleup_1(S)=\pi_S*b_S(O_1=w)=0.4*0.6=0.24\)
初始路径为:
\(\phi_1(R)=Rainy\)
\(\phi_1(S)=Sunny\)
计算次日下雨和次日晴天去购物的几率值:
对应路径为:
计算第三天下雨和第三天晴天去打扫卫生的几率值:
对应路径为:
比较每一步中 \(\bigtriangleup\) 的几率大小,选取最大值并找到对应的路径,依次类推就能找到最有可能的隐藏状态路径。
第一天的几率最大值为 \(\bigtriangleup_1S\),对应路径为Sunny,
次日的几率最大值为 \(\bigtriangleup_2S\),对应路径为Sunny,
第三天的几率最大值为 \(\bigtriangleup_3R\),对应路径为Rainy。
合起来的路径就是Sunny->Sunny->Rainy,这就是咱们所求。
以上是比较通俗易懂的维特比算法,若是须要严谨表述,能够查看《数学之美》这本书的第26章,讲的就是维特比算法,很详细。附:《数学之美》下载地址,点击下载
鲍姆-韦尔奇算法(Baum-Welch Algorithm) (约等于EM算法),详细讲解请见:监督学习方法与Baum-Welch算法
wikipedia上是这样定义因子图的:将一个具备多变量的全局函数因子分解,获得几个局部函数的乘积,以此为基础获得的一个双向图叫作因子图(Factor Graph)。
通俗来说,所谓因子图就是对函数进行因子分解获得的一种几率图。通常内含两种节点:变量节点和函数节点。咱们知道,一个全局函数经过因式分解可以分解为多个局部函数的乘积,这些局部函数和对应的变量关系就体如今因子图上。
举个例子,如今有一个全局函数,其因式分解方程为:
\[g(x_1,x_2,x_3,x_4,x_5)=f_A(x_1)f_B(x_2)f_C(x1,x2,x3)f_D(x_3,x_4)f_E(x_3,x_5)\]
其中fA,fB,fC,fD,fE为各函数,表示变量之间的关系,能够是条件几率也能够是其余关系。其对应的因子图为:
咱们已经知道,有向图模型,又称做贝叶斯网络,但在有些状况下,强制对某些结点之间的边增长方向是不合适的。使用没有方向的无向边,造成了无向图模型(Undirected Graphical Model,UGM), 又被称为马尔可夫随机场或者马尔可夫网络(Markov Random Field, MRF or Markov network)。
设X=(X1,X2…Xn)和Y=(Y1,Y2…Ym)都是联合随机变量,若随机变量Y构成一个无向图 G=(V,E)表示的马尔可夫随机场(MRF),则条件几率分布P(Y|X)称为条件随机场(Conditional Random Field, 简称CRF,后续新的博客中可能会阐述CRF)。以下图所示,即是一个线性链条件随机场的无向图模型:
在几率图中,求某个变量的边缘分布是常见的问题。这问题有不少求解方法,其中之一就是把贝叶斯网络或马尔可夫随机场转换成因子图,而后用sum-product算法求解。换言之,基于因子图能够用sum-product 算法高效的求各个变量的边缘分布。
详细的sum-product算法过程,请查看博文:从贝叶斯方法谈到贝叶斯网络
一个通俗的例子
假设你有许多小明同窗一天内不一样时段的照片,从小明提裤子起床到脱裤子睡觉各个时间段都有(小明是照片控!)。如今的任务是对这些照片进行分类。好比有的照片是吃饭,那就给它打上吃饭的标签;有的照片是跑步时拍的,那就打上跑步的标签;有的照片是开会时拍的,那就打上开会的标签。问题来了,你准备怎么干?
一个简单直观的办法就是,无论这些照片之间的时间顺序,想办法训练出一个多元分类器。就是用一些打好标签的照片做为训练数据,训练出一个模型,直接根据照片的特征来分类。例如,若是照片是早上6:00拍的,且画面是黑暗的,那就给它打上睡觉的标签;若是照片上有车,那就给它打上开车的标签。
乍一看能够!但实际上,因为咱们忽略了这些照片之间的时间顺序这一重要信息,咱们的分类器会有缺陷的。举个例子,假若有一张小明闭着嘴的照片,怎么分类?显然难以直接判断,须要参考闭嘴以前的照片,若是以前的照片显示小明在吃饭,那这个闭嘴的照片极可能是小明在咀嚼食物准备下咽,能够给它打上吃饭的标签;若是以前的照片显示小明在唱歌,那这个闭嘴的照片极可能是小明唱歌瞬间的抓拍,能够给它打上唱歌的标签。
因此,为了让咱们的分类器可以有更好的表现,在为一张照片分类时,咱们必须将与它相邻的照片的标签信息考虑进来。这——就是条件随机场(CRF)大显身手的地方!这就有点相似于词性标注了,只不过把照片换成了句子而已,本质上是同样的。
如同马尔可夫随机场,条件随机场为具备无向的图模型,图中的顶点表明随机变量,顶点间的连线表明随机变量间的相依关系,在条件随机场中,随机变量Y 的分布为条件机率,给定的观察值则为随机变量 X。下图就是一个线性连条件随机场。
条件几率分布P(Y|X)称为条件随机场。
EM算法是用于含有隐变量模型的极大似然估计或者极大后验估计,有两步组成:E步,求指望(expectation);M步,求极大(maxmization)。本质上EM算法仍是一个迭代算法,经过不断用上一代参数对隐变量的估计来对当前变量进行计算,直到收敛。注意:EM算法是对初值敏感的,并且EM是不断求解下界的极大化逼近求解对数似然函数的极大化的算法,也就是说EM算法不能保证找到全局最优值。对于EM的导出方法也应该掌握。
隐马尔可夫模型是用于标注问题的生成模型。有几个参数(π,A,B):初始状态几率向量π,状态转移矩阵A,观测几率矩阵B。称为马尔科夫模型的三要素。马尔科夫三个基本问题:
几率计算问题:给定模型和观测序列,计算模型下观测序列输出的几率。–》前向后向算法
学习问题:已知观测序列,估计模型参数,即用极大似然估计来估计参数。–》Baum-Welch(也就是EM算法)和极大似然估计。
预测问题:已知模型和观测序列,求解对应的状态序列。–》近似算法(贪心算法)和维比特算法(动态规划求最优路径)
条件随机场CRF,给定一组输入随机变量的条件下另外一组输出随机变量的条件几率分布密度。条件随机场假设输出变量构成马尔科夫随机场,而咱们平时看到的大可能是线性链条随机场,也就是由输入对输出进行预测的判别模型。求解方法为极大似然估计或正则化的极大似然估计。
之因此总把HMM和CRF进行比较,主要是由于CRF和HMM都利用了图的知识,可是CRF利用的是马尔科夫随机场(无向图),而HMM的基础是贝叶斯网络(有向图)。并且CRF也有:几率计算问题、学习问题和预测问题。大体计算方法和HMM相似,只不过不须要EM算法进行学习问题。
HMM和CRF对比:其根本仍是在于基本的理念不一样,一个是生成模型,一个是判别模型,这也就致使了求解方式的不一样。
HMM词性标注,GitHub:点击进入
做者:@mantchs