L1,L2正则化

在一些优化问题上,损失函数后面都会加一个惩罚项进行正则化。例如,对于线性回归模型,用L1范数进行正则化的称为LASSO(Least Absolute Shrinkage and Selection Operator)回归;用L2范数进行正则化的成为岭回归(Ridge regression) 回归模型中的W用来表示特征的系数,而正则化则是通过限制系数,对特征做了进一步约束。 L1范数约束可以使得W中
相关文章
相关标签/搜索