1、损失函:机器学习
模型的结构风险函数包括了 经验风险项 和 正则项,以下所示:ide
2、损失函数中的正则项函数
1.正则化的概念:学习
机器学习中都会看到损失函数以后会添加一个额外项,经常使用的额外项通常有2种,L1正则化和L2正则化。L1和L2能够看作是损失函数的惩罚项,所谓惩罚项是指对损失函数中某些参数作一些限制,以下降模型的复杂度。优化
L1正则化经过稀疏参数(特征稀疏化,下降权重参数的数量)来下降模型的复杂度;spa
L2正则化经过下降权重的数值大小来下降模型复杂度。blog
对于线性回归模型,使用L1正则化的模型叫作Lasso回归,使用L2正则化的模型叫作Ridge回归(岭回归)。文档
通常正则化项前面添加一个系数λ,数值大小须要用户本身指定,称权重衰减系数weight_decay,表示衰减的快慢。get
2.L1正则化和L2正则化的做用:io
·L1正则化能够产生稀疏权值矩阵,即产生一个稀疏模型,能够用于特征选择。
·L2正则化能够减少参数大小,防止模型过拟合;必定程度上L1也能够防止过拟合
稀疏矩阵的概念:
·在矩阵中,若数值为0的元素数目远远超过非0元素的数目时,则该矩阵为稀疏矩阵。与之相反,若非0元素数目占大多数时,则称该矩阵为稠密矩阵。
三、正则项的直观理解
引用文档连接:
https://baijiahao.baidu.com/s?id=1621054167310242353&wfr=spider&for=pc
分别从如下角度对L1和L2正则化进行解释:
一、 优化角度分析
二、 梯度角度分析
三、 图形角度分析
四、 PRML的图形角度分析
优化角度分析:
L2正则化的优化角度分析:
即在限定区域找到使得ED(W)最小的权重W。
假设n=2,即只有2个参数w1和w2;做图以下:
图中红色的圆便是限定区域,简化为2个参数就是w1和w2,限定区域w12+w22≤C便是以原点为圆心的圆。蓝色实线和虚线是等高线,外高内低,越靠里面的等高圆ED(W)越小。梯度降低的方向(梯度的反方向-▽ED(W)),即图上灰色箭头的方向,由外圆指向内圆的方向
表示;正则项边界上运动点P1和P2的切线用绿色箭头表示,法向量用实黑色箭头表示。切点P1上的切线在梯度降低方向有份量,仍有往负梯度方向运动的趋势;而切点P2上的法向量正好是梯度降低的方向,切线方向在梯度降低方向无份量,因此往梯度降低方向没有运动趋势,已经是梯度最小的点。
结论:L2正则项使E最小时对应的参数W变小(离原点的距离更小)
L1正则化的优化角度分析:
在限定区域,找到使ED(w)的最小值。
同上,假设参数数量为2:w1和w2,限定区域为|w1|+|w2|≤C ,即为以下矩形限定区域,限定区域边界上的点的切向量的方向始终指向w2轴,使得w1=0,因此L1正则化容易使得参数为0,即便参数稀疏化。
梯度角度分析:
L1正则化:
L1正则化的损失函数为:
L1正则项的添加使参数w的更新增长了,sgn(w)为阶跃函数,当w大于0,sgn(w)>0,参数w变小;当w小于0时,更新参数w变大,因此整体趋势使得参数变为0,即特征稀疏化。
L2正则化:
L2正则化的损失函数为:
由上式能够看出,正则化的更新参数相比没有加正则项的更新参数多了,当w>0时,正则项使得参数增大变慢(减去一个数值,增大的没那么快),当w<0时,正则项使得参数减少变慢(加上一个数值,减少的没那么快),整体趋势变得很小,但不为0。
PRML的图形角度分析
L1正则化在零点附近具备很明显的棱角,L2正则化则在零附近是比较光滑的曲线。因此L1正则化更容易使参数为零,L2正则化则减少参数值,以下图。
L1正则项
L2正则项
以上是根据阅读百度网友文章作的笔记(其中包括本身的理解),感谢该文档做者,引用连接: