Deeplearning,ai之学习笔记 Course2 Week2 Optimization algorithms

Optimization algorithms 2.6 动量梯度降低法(Gradient descent with Momentum) 一个普通batch/mini-batch的学习过程 Momentum的方法 2.7 RMSprop(root mean square prop算法) 一个普通的batch/mini-batch学习过程 RMSprop方法 2.8 Adam优化算法(Adam opt
相关文章
相关标签/搜索