L1正则化求导问题

L1正则化求导问题 在实现机器学习算法时,最常用的是L2正则化,因为L2正则化有连续可微的性质,易求导。但L1能产生稀疏解,而且稀疏解的泛化能力会比较好,不过由于L1正则化并不是处处连续的,所以优化的时候会有一定难度。 对于目标函数不是连续可微的情况,可以用次梯度来进行优化,但次梯度存在两个问题: 求解慢 通常不会产生稀疏解 次梯度定义:次梯度,次导数 此时可以用 Proximal Algorit
相关文章
相关标签/搜索