深度学习之梯度降低算法(SGD,RMSProp,Adam)

梯度降低算法改进 1. 优化遇到的问题 1.1 梯度消失 1.2 局部最优 1.3 参数初始化策略(复习) 2. 批梯度降低算法(Batch Gradient Descent) 3. Mini-Batch Gradient Descent 4. 批梯度降低与Mini-Batch梯度降低的区别 5. 梯度降低优化影响 6.大小选择 7. 指数加权平均 8. 动量梯度降低法 9. RMSProp 算法
相关文章
相关标签/搜索