从两个例子理解EM算法
本文是作者对EM算法学习的笔记,从EM算法出发介绍EM算法,为了更好理解,用两个应用EM算法求解的例子进一步解释EM的应用。
EM算法
EM算法引入
EM算法,指的是最大期望算法(Expectation Maximization Algorithm,期望最大化算法),是一种迭代算法,在统计学中被用于寻找,依赖于不可观察的隐性变量的概率模型中,参数的最大似然估计。基本思想是首先随机取一个值去初始化待估计的参数值,然后不断迭代寻找更优的参数使得其似然函数比原来的似然函数大。
- EM算法当做最大似然估计的拓展,解决难以给出解析解(模型中存在隐变量)的最大似然估计(MLE)问题
- 在算法中加入隐变量的思想可以类比为几何题中加入一条辅助线的做法。
假定有训练集{
x(1),x(2),...x(m)
},包含
m
个独立样本,希望从中找到该组数据的模型
p(x,z)
的参数。
对数似然函数表达如下:

在表达式中因为存在隐变量,直接找到参数估计比较困难,所以我们通过EM算法迭代求解下界的最大值,直到收敛。
我们通过以下的图片来解释这一过程:

图片上的紫色部分是我们的目标模型
p(x|θ)
曲线,该模型比较复杂,难以直接求解其解析解,为了消除隐变量
z
带来的影响,我们可以得到一个不包含的
z
的模型
r(x|θ)
(该函数是我们自己选定的,因此最大值可求解), 同时满足条件
r(x|θ)≤p(x|θ)
。
- 我们先取一个
θ1
,使得
r(x|θ1)=p(x|θ1)
(如绿线所示),然后再对此时的
r
求其最大值,得到极值点
θ2
,实现参数的更新。
- 不断重复以上过程,在更新过程中始终满足
r≤p
直到收敛。
从以上过程来看,EM算法的核心就是如何找到这个
r
,即
p
的下界函数。
这个下界函数有多种方法理解,我们从Jensen不等式的角度来理解。

上述等号成立的条件是
p(x(i),z(i);θ)Qi(z(i))=c
,
∑zQi(z(i))=1
,所以:

最终框架如下:

EM推导高斯混合模型
高斯混合模型GMM
设有随机变量
X
, 则高斯混合模型可以用
p(x)=∑Kπk(x|μk,Σk)
,其中
(x|μk,Σk)
表示混合模型中的第
k
个分量
πk
表示混合系数,满足
∑kπk=1,0≤πk≤1
。
我们知道高斯函数的概率分布为
f(x)=1(√2π)σexp(−(x−μ)22σ2)
, 在混合高斯分布中待估计变量就包括了
μ,σ,π
。
对数似然函数为
lμ,Σ,π=∑Ni=1log(∑Kk=1)πk(xi|μk,Σk))
EM 推导过程
第一步:估算数据来自于哪个组分,即估计每一个组分生成的概率,对每个样本
xi
,它由第
k
个组份生成的概率可以记作:
γ(i,k)=πk(xi|μk,Σk)∑jπj(xi|μj,Σj)
第二步:估计每个组份的参数
E-step: 在给定了样本和每个高斯分布的参数以及组份的分布函数的情况下
w(i)j=Qi(z(i)=j)=p(z(i))=j|x(i);ϕ,μ,Σ)
M-step:将多项式分布和高斯分布的参数带入:
∑mi=1∑z(i)Qi(z(i))logp(x(i),z(i);ϕ,μ,Σ)Qi(z(i))
=∑mi=1∑kj=1Qi(z(i)=j)logp(x(i)|z(i)=j;ϕ,μ,Σ)p(z(i)=j;ϕ)Qi(z(i))
∑mi=1∑kj=1w(i)jlog1(2π)n2|Σj|(12)exp(−12(x(i)−μj)TΣ−1j(x(i)−μj))ϕjw(i)j
(x(i)−μj))ϕjw(i)j
分别对其中的未知参数求偏导数: