深度学习优化方法-AdaGrad

“微信公众号” 本文文章同步更新在我的知乎专栏里面: 深度学习优化方法-AdaGrad - Microstrong的文章 - 知乎https://zhuanlan.zhihu.com/p/38298197 梯度下降算法、随机梯度下降算法(SGD)、小批量梯度下降算法(mini-batch SGD)、动量法(momentum)、Nesterov动量法有一个共同的特点是:对于每一个参数都用相同的学习率
相关文章
相关标签/搜索