为什么L1惩罚L2惩罚更容易得到稀疏解

在优化问题中,为什么L1惩罚L2惩罚更容易得到稀疏解 L 1 _1 1​惩罚与L 2 _2 2​惩罚是什么 下面从3个角度解释为什么L1惩罚L2惩罚更容易得到稀疏解 最优化问题的角度 梯度的角度 L 1 _1 1​惩罚与L 2 _2 2​惩罚是什么 L 1 _1 1​惩罚与L 2 _2 2​惩罚都是对模型进行惩罚,防止因模型参数过于复杂而导致过拟合。特别的,在线性模型中,加L 1 _1 1​惩罚的
相关文章
相关标签/搜索