深度学习(五)学习率的调节

      学习率对于深度学习是一个重要的超参数,它控制着基于损失梯度调整神经网络权值的速度,大多数优化算法(SGD、RMSprop、Adam)对其都有所涉及。学习率越小,损失梯度下降的速度越慢,收敛的时间更长,如公式所示: new_weight= existing_weight — learning_rate * gradient (新权值 = 当前权值 – 学习率 × 梯度)        如
相关文章
相关标签/搜索