EM算法原理:算法
EM算法通常用于无监督学习模型,由于无监督学习没有标签(即y值),EM算法能够先给无监督学习估计一个隐状态(即标签),有了标签,算法模型就能够转换成有监督学习,这时就能够用极大似然估计法求解出模型最优参数。其中估计隐状态流程应为EM算法的E步,后面用极大似然估计为M步。函数
EM算法(Expectation Maximization Algoithm,最大指望参数)是一种迭代类型的算法,是一种 在几率模型中寻找参数最大似然估计或者最大后验估计的算法。学习
EM算法流程:spa
一、初始化分布参数blog
二、重复下面两个步骤直到模型收敛it
E步骤,估计隐藏变量的几率分布指望函数io
M步骤,根据指望函数从新估计分布参数变量
图解EM算法原理:原理
首先给定一个初始值∂^0,这时能够经过极大似然函数求解出一个新的∂^1,再把∂^1做为新的极大似然函数的参数,求得∂^2,而后不断的迭代,最后生成∂不会变,即迭代终止。求得最终解im