【ML&DL】【skimming】On the saddle point problem for non-convex optimization

补一下经典,2014年Yoshua Bengio的On the saddle point problem for non-convex optimization。 论文一览: 痛点 深度学习一个主要问题就是要在一个连续高维的空间中去最小化非凸的损失函数。 人们使用的方法经常是梯度下降或者拟牛顿法,这些方法找到全局最小值的主要困难源自局部极小值的扩散,其误差远高于全局最小值。但是本文认为,真正需要担
相关文章
相关标签/搜索