【机器学习】L1和L2正则化

正则化为什么能防止过拟合?(最后看)   机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,一般英文称作  ℓ1​-norm 和 ℓ2​-norm,中文称作 L1正则化 和 L2正则化,或者 L1范数 和 L2范数。 L1正则化和L2正则化可以看做是损失函数的惩罚项。所谓『惩罚』是指对损失函数中的某些参数(权重w)做一些限制。 L1稀疏模型与特征选择  上面提到L1正则
相关文章
相关标签/搜索