机器学习算法——demo

为脑残的面试问题而生,哈哈~ (1)LR为什么不可以用MSE作为损失函数? MSE 会有梯度消失现象 MSE 的导数非凸 求最优解困难 (2)L1 相比于 L2 为什么容易获得稀疏解? (3)L1正则化项如何求导? 对于目标函数不是处处连续可微的情况,通常是使用次梯度(subgradient)来进行优化,由于次梯度自身的原因会导致两方面问题:求解慢、通常不会产生稀疏解。 Proximal Algo
相关文章
相关标签/搜索