几种常见的损失函数

1. 损失函数、代价函数与目标函数html

  损失函数(Loss Function):是定义在单个样本上的,是指一个样本的偏差。
  代价函数(Cost Function):是定义在整个训练集上的,是全部样本偏差的平均,也就是全部损失函数值的平均。
  目标函数(Object Function):是指最终须要优化的函数,通常来讲是经验风险+结构风险,也就是(代价函数+正则化项)。算法

 

2. 经常使用的损失函数函数

(1)0-1损失函数(0-1 loss function) 性能

     $L(y, f(x)) = \begin{cases} 1, &  {y \neq f(x) } \\ 0, & {y = f(x)} \end{cases}$ 学习

  也就是说,当预测错误时,损失函数为1,当预测正确时,损失函数值为0。该损失函数不考虑预测值和真实值的偏差程度。只要错误,就是1。优化

(2)平方损失函数(quadratic loss function)spa

             \( L(y, f(x)) = (y - f(x))^2 \)xml

  是指预测值与实际值差的平方。htm

(3)绝对值损失函数(absolute loss function)blog

      $L(y, f(x)) = | y -f(x) |$

  该损失函数的意义和上面差很少,只不过是取了绝对值而不是求绝对值,差距不会被平方放大。

(4)对数损失函数(logarithmic loss function)

      $L(y, p(y|x)) = - \log p(y|x)$

  这个损失函数就比较难理解了。事实上,该损失函数用到了极大似然估计的思想。P(Y|X)通俗的解释就是:在当前模型的基础上,对于样本X,其预测值为Y,也就是预测正确的几率。因为几率之间的同时知足须要使用乘法,为了将其转化为加法,咱们将其取对数。最后因为是损失函数,因此预测正确的几率越高,其损失值应该是越小,所以再加个负号取个反。

(5)Hinge loss

  Hinge loss通常分类算法中的损失函数,尤为是SVM,其定义为:

    $L(w,b) = max \{0, 1-yf(x) \}$

  其中$y = +1 或 y = -1$,$f(x) = wx+b$,当为SVM的线性核时。


3. 经常使用的代价函数

(1) 均方偏差(Mean Squared Error) 

                 \( MSE = \frac{1}{N} \sum_{i=1}^N (y^{(i)} - f(x^{(i)}))^2 \)

  均方偏差是指参数估计值与参数真值之差平方的指望值; MSE能够评价数据的变化程度,MSE的值越小,说明预测模型描述实验数据具备更好的精确度。( 表示第 i 个样本,N表示样本总数)

  一般用来作回归问题的代价函数

(2)均方根偏差  

           \( RMSE = \sqrt{\frac{1}{N} \sum_{i=1}^N (y^{(i)} - f(x^{(i)})) } \)

  均方根偏差是均方偏差的算术平方根,可以直观观测预测值与实际值的离散程度。
  一般用来做为回归算法的性能指标

(3)平均绝对偏差(Mean Absolute Error)  

      \( MAE = \frac{1}{N} \sum_{i=1}^N |y^{(i)} - f(x^{(i)})| \)

  平均绝对偏差是绝对偏差的平均值 ,平均绝对偏差能更好地反映预测值偏差的实际状况。
  一般用来做为回归算法的性能指标

(4)交叉熵代价函数(Cross Entry)  

          \( H(p,q) = - \sum_{i=1}^{N} p(x^{(i)}) \log {q(x^{(-i)})} \)

  交叉熵是用来评估当前训练获得的几率分布与真实分布的差别状况,减小交叉熵损失就是在提升模型的预测准确率。其中 p(x)是指真实分布的几率, q(x) 是模型经过数据计算出来的几率估计。
  好比对于二分类模型的交叉熵代价函数(可参考逻辑回归一节):

        \( L(w,b) = -\frac{1}{N} \sum_{i=1}^{N} (y^{(i)} \log {f(x^{(i)})} + ( 1- y^{(i)}) \log {(1- f(x^{(i)})})) \)

  其中 f(x)能够是sigmoid函数。或深度学习中的其它激活函数。而 y(i)0,1
  一般用作分类问题的代价函数。

 

文章转自: https://www.cnblogs.com/lliuye/p/9549881.html

相关文章
相关标签/搜索