【ML&DL】【skimming】Global Optimality in Neural Network Training

补了一下2017年的CVPR,Global Optimality in Neural Network Training[1] 论文一览: 痛点 深度学习取得了很大的成功,但是对其成功原因的数学解释却还是一个难点。很大一个原因是对深度网络的参数学习是一个非凸的过程。而优化算法有陷入非global minima的可能。凸优化问题的局部极小值也是全局极小值,因此学习问题的凸公式通常更可取,因为它们有助于
相关文章
相关标签/搜索