在机器学习中,咱们常常要利用极大似然法近似数据总体的分布,本篇文章经过介绍极大似然法及其一些性质,旨在深刻浅出地解释清楚极大似然法。机器学习
首先看一下经典的贝叶斯公式:函数
$$ p(Y|X)=\frac{p(X|Y)p(Y)}{p(X)} $$post
其中,$p(Y)$称为先验几率($prior$),即根据先验知识得出的关于变量$Y$的分布,$p(X|Y)$称为似然函数($likelihood$),$p(X)$为变量$X$的几率,$p(Y|X)$称之为条件几率(给定变量$X$的状况下$Y$的几率,$posterior$,后验几率)。学习
似然,便可能性;顾名思义,则似然函数就是关于可能性的函数了。在统计学中,它表示了模型参数的似然性,即做为统计模型中参数的函数。通常形式以下:事件
$$ L(\omega)=p(D | \omega) = p(x_1, x_2, \cdots ,x_n| \omega) $$ip
其中,$D$表示样本集$\{x_1,x_2,\cdots, x_n\}$, $\omega$表示参数向量。get
似然函数表示了在不一样的参数向量$\omega$下,观测数据出现的可能性的大小,它是参数向量$\omega$的函数。在某种意义上,咱们能够认为其是条件几率的逆反$^{[1]}$。博客
在这里利用Wikipedia$^{[1]}$中的例子简要说明一下似然函数,同时也引出极大似然估计。数学
考虑优质一枚硬币的实验,一般来讲,咱们的硬币都是“公平”(质地均匀)的,即正面向上(Head)的几率$p_H=0.5$,由此几率咱们能够知道投掷若干次后各类结果出现的可能性(几率,或然性)。it
例如,投掷硬币两次,两次都为上的几率为0.25,利用条件几率表示,即:
$$ P(HH|p_h=0.5)=0.5^2=0.25 $$
若是一个硬币并不是质地均匀,那么它多是一枚“非公平”的。在统计学中,咱们关注的是已知一系列投掷的结果时,关于硬币投掷时正面朝上的可能性的信息。咱们能够创建一个统计模型:假设硬币投出时会有$p_H$的几率正面朝上,则有$1-p_H$的几率反面朝上。这时经过观察已发生的两次投掷,条件几率能够改写成似然函数:
$$ L(p_H)=P(HH|p_H=0.5)=0.25 $$
也就是说,对于取定的似然函数,在观测到两次投掷都是正面朝上时,$p_H$的似然性是0.25。注意,反之并不成立,即当似然函数为0.25时,不能推论出$p_H=0.25$。
若是考虑$p_H=0.6$,那似然函数也会改变:
$$ L(p_H)=P(HH|p_H=0.6)=0.36 $$
如图所示,注意到似然函数的值变大了。这说明,若是参数$p_H$取值变成0.6的话,结果观测到连续两次正面朝上的几率比假设$p_H=0.5$时更大,也就是说,参数$p_H$取0.6要比取成0.5更有说服力,更为"合理"。
<img src="LikelihoodFunctionAfterHH.png" alt="img" style="zoom:50%;" />
总之,似然函数的重要性不是它的具体取值,而是当参数变化时,函数到底变小仍是变大。
对同一个似然函数,其所表明的模型中,某项参数值具备多种可能,但若是存在一个参数值,使得它的函数值最爱的话,那么这个值就是这项参数最为“合理”的参数值。
在这个例子中,$p_H$取1时,似然函数达到最大值。也便是,当连续观测到两次正面朝上时,假设硬币投掷时正面朝上的几率为1是最合理的。
在上述引用中,咱们看到了一个极端的结论,即将来全部的投掷都会是正面向上,这是频率派观点下使用普遍的一种方法,即极大似然法。在上面的观点中(频率派),$\omega$被认为是一个固定的参数,它的值经过估计来肯定。可是在贝叶斯派观点中,只有一个数据集$D$(即实际观测到的数据集),参数的不肯定性经过$\omega$的几率分布来表达。贝叶斯的观点是对先验几率的包含是很天然的事情,包含先验几率的贝叶斯方法将不会获得上述的极端结论。
另外还有两点须要注意,第一,似然函数不是$\omega$的几率分布,关于$\omega$的积分并不必定等于1;第二,似然$\ne$几率,几率(或然性)用于在已知一些参数的状况下预测接下来的结果,似然性则是在已知某些结果时,对有关参数进行估值。关于第二点,举个例子,若是我有一枚硬币,若是是质地均匀的(已知参数),那么它出现正面朝上的几率为0.5(结果);一样地,若是一枚硬币,我抛了100次,正面朝上52次(结果),那么我认为硬币十有八九是质地均匀的(估计参数)。
了解了似然函数,那么极大似然估计是什么就很好理解了,它是一种用来估计一个几率模型参数的方法。根据公式(2),咱们一旦得到一个数据集$D$,那咱们就能求得一个关于$\omega$的估计,极大似然估计会寻找一个最可能的值(此处的多是最可能的$\omega$,这个$\omega$可使出现采样$D$的可能性最大化)。
从数学上来说,咱们能够在$\omega$的全部取值中,寻找一个值使得似然函数达到最大值,这种估计方法称之为极大似然估计。极大似然估计是样本不变时,关于$\omega$的函数。极大似然估计不必定存在,也不必定惟一。
在第1节中预测硬币的质地$\omega$,是关于极大似然估计的一个经典例子。其余例子能够查看参考文献$^{[2]}$。
如今咱们看一下极大似然估计在正态分布中的应用:
如今假定咱们有一个观测的数据集$\mathbf{x}=(x_1,\cdots,x_N)^T$,表示标量变量$x$的N次观测。咱们假定各次观测是独立地从高斯分布中抽取,分布的均值$\mu$和方差$\sigma^2$未知,咱们想根据数据集来肯定这些参数。两个独立事件的联合几率能够由各个事件的边缘几率的乘积获得。咱们的数据集$\mathbf{x}$是独立同分布的,所以给定$\mu$和$\sigma^2$,咱们能够给出高斯分布的似然函数:
$$ p(\mathbf{x}|\mu,\sigma^2)=\prod_{n=1}^{N}\mathcal{N}(x_n|\mu,\sigma^2) $$
为了简化分析和有助于数值运算,咱们取似然函数的对数(最大化对数似然等价于最大化似然函数,很容易证实):
$$ ln(\mathbf x|\mu,\sigma^2)=-\frac {1} {2\sigma^2} \sum_{n=1}^{N}(x_n-\mu)^2-\frac {N}{2}ln\sigma^2-\frac{N}{2}ln(2\pi) $$
关于$\mu$,最大化对数似然函数,获得$\mu$的最大似然解:
$$ \mu_{ML}=\frac {1}{N} \sum_{n=1}^{N}x_n $$
可看到解为样本均值。同理,方差$\sigma^2$的最大似然解为:
$$ \sigma_{ML}^2=\frac {1}{N} \sum_{n=1}^{N}(x_n-\mu_{ML})^2 $$
由此完成了正态分布的极大似然估计。
极大似然估计方法求解参数有必定局限性$^{[3]}$,极大似然法除了会得出第1节中关于硬币的极端状况外,还会出现一种状况,有偏估计,就是指望$\ne$理想值。最大似然方法会系统化地低估分布的方差。下面进行证实:
均值的估计$\mu_{ML}$的指望$E[\mu_{ML}]$为:
$$ E(\mu_{ML})=E(\frac{1}{N} \sum_{n=1}^{N}x_n)=\frac {1}{N}E({\sum_{n=1}^{N}x_n})=\frac{1}{N}\sum_{n=1}^{N}E(x_n)=\mu $$
方差的估计$\sigma^2$的指望$E[\sigma_{ML}^2]$为:
$$ E[\sigma_{ML}^2]=E(\frac {1}{N} \sum_{n=1}^{N}(x_n-\mu_{ML})^2)=E(\frac{1}{N}\sum_{n=1}^{N}x_n^2-\mu_{ML}^2)=\frac {1}{N}\sum_{n=1}^{N}E(x_n^2)-E(\mu_{ML}^2) $$
而后求其后两项,正态分布的二阶矩为
$$ E(x_n^2)=\mu^2+\sigma^2 $$
而
$$ E(\mu_{ML}^2)=E((\frac{x_1+x_2+x_3+\cdots+x_n}{n})^2)=\frac{1}{n^2}(n^2\mu^2+n\sigma^2) $$
故:
$$ E[\sigma_{ML}^2]=\frac{n-1}{n}\sigma^2 $$
由此证实了极大似然的有偏性。其中公式(12)和公式(13)的证实可自行参考正态分布的基础知识。
在这里,PRML$^{[3]}$给出了更直观地解释,以下图:
其中,绿色曲线表示真实高斯分布,数据点是根据此几率分布生成,三条红色分别拟合了三个高斯几率分布,每一个数据集包含了两个蓝色数据点,对三个数据集求平均,很明显方差被低估了。由于它是相对样本均值进行测量的,而不是相对真实的均值进行测量
极大似然做为机器学习中的一种最经常使用方法,深入理解其含义是很是必要且有用的,应该像这对于理解几率论和一些常见的模型有着很大的帮助。固然,极大似然法还有一些性质,如泛函不变性,渐行线行为,限于时间精力和我的水平,没有给出证实,读者可自行参考维基百科$^{[2]}$。文章中大部份内容为总结和摘抄,共勉。
参考文献:
本文由博客一文多发平台 OpenWrite 发布!