机器学习——风险函数

1.损失函数vs风险函数

损失函数度量模型一次预测的好坏,风险函数度量平均意义下模型预测的好坏。html

2.风险函数定义

风险函数(risk function)=指望风险(expected Risk=指望损失(expected loss),能够认为是平均意义下的损失。函数

例如:下面的对数损失函数中,损失函数的指望,就是理论上模型f(X)关于联合分布P(X,Y)的平均意义下的损失。学习

风险函数有两种,不考虑正则项的是经验风险(Empirical Risk),考虑过拟合问题,加上正则项的是结构风险(Structural Risk)。优化

监督学习的两种基本策略:经验风险最小化(ERM)和结构风险最小化(SRM)。spa

这样,监督学习问题就成了经验风险或结构风险函数的最优化问题(1.11)和(1.13)。经验或结构风险函数是最优化的目标函数。.net

(1)三个风险的关系

指望风险是理想,是白月光,是可望不可求的,只能用经验风险去近似,而结构风险是经验风险的升级版。code

为何能够用经验风险估计指望风险呢?htm

根据大数定律,当样本容量N趋于无穷时,经验风险Remp(f)趋于指望风险Rexp(f)。因此一个很天然的想法是用经验风险估计指望风险。blog

可是,因为现实中的训练样本数目有限,甚至很小,因此用经验风险估计指望风险经常并不理想,要对经验风险进行必定的矫正。这就关系到监督学习的两个基本策略:经验风险最小化和结构风险最小化。get

(2)指望风险(expected Risk)【全局,理想】

指望风险对全部样本预测错误程度的均值,基于全部样本点损失函数最小化。指望风险是全局最优,是理想化的不可求的。

指望风险=指望损失=风险函数,也就是损失L(Y,f(X))的数学指望,在理论上,能够代入指望公式EX=∑xi·Pi=∫x·f(x)dx,也就是E(L(Y,f(X))=∫L(y,f(x))·f(x,y) dxdy。

\large R_{exp}=E_{p}[L(Y,f(X))]=\int_{X\times Y}^{ }L(y,f(x)))\cdot P(x,y) dxdy

可是因为联合几率密度函数f(x,y)不知道,因此此路不通,只能另寻他路,也就是根据经验找近似。【这个矛盾,能够在文末的一张图上体现】

(3)经验风险(Empirical Risk)【局部,现实】

经验风险,基于训练集全部样本点损失函数的平均最小化。经验风险是局部最优,是现实的可求的。

经验风险=经验损失=代价函数

给定一个数据集,模型f(x)关于训练集的平均损失被称为经验风险(empirical risk)或经验损失(empirical loss)。

这个公式的用意很明显,就是模型关于训练集的平均损失(每一个样本的损失加起来,而后平均一下)。在实际中用的时候,咱们也就很天然的这么用了。

(4)结构风险(Structural Risk)

结构风险,就是在经验风险上加上一个正则化项(regularizer)或者叫作罚项(penalty term),即

3.经验风险最小化和结构风险最小化

(1)经验风险最小化&结构风险最小化

经验风险最小化(empirical risk minimization,ERM),就是认为经验风险最小的模型是最优的模型,用公式表示:


这个理论很符合人的直观理解。由于在训练集上面的经验风险最小,也就是平均损失越小,意味着模型获得结果和“真实值”尽量接近,代表模型越好。

 

当样本容量不大的时候,经验风险最小化模型容易产生“过拟合”的问题。为了“减缓”过拟合问题,就提出了结构风险最小的理论。

结构风险最小化structural risk minimization,SRM)就是认为,结构风险最小的模型是最优模型,公式表示:

 

(2)经验风险最小化的例子:极大似然估计(maximum likelihood estimation)。

模型,条件几率分布;

损失函数,对数损失函数;

  经验风险最小化等价于极大似然估计。

(2)结构风险最小化的例子:贝叶斯最大后验几率估计。

模型,条件几率分布;

损失函数,对数损失函数;

模型复杂度,由先验几率表示;

结构风险=经验风险+正则项=后验几率+先验几率;

先验几率不变,结构风险最小化,等价于最大后验几率估计。

 

4.风险函数与对数损失函数

 

 

 

参考:

李航《统计学习方法》

https://blog.csdn.net/xierhacker/article/details/53366723?utm_source=copy

(structural risk minimization,SRM)

相关文章
相关标签/搜索