梯度下降优化算法整理:SGD、AdaGrad、RMSProp、Momentum、Adam

深度学习在执行梯度下降算法时,通常会面临一系列的问题。如陷入local minimun、saddle point,训练很慢或不收敛等诸多问题。因此需要对梯度下降算法进行优化,优化的考量主要有三个方面: batch的选择问题,对训练集进行一轮训练,每次梯度下降更新参数时需要考虑训练集中多少个样本; learning rate的选择问题,如果训练过程中学习率是定值,显然是不好的。因为训练开始阶段可能较
相关文章
相关标签/搜索