优化器

文章目录 标准梯度下降法GD 随机梯度下降法(SGD)和批随机梯度下降法(BGD) 为什么不用牛顿法? 动量法 NAG 动量法改进算法(带刹车) AdaGrad RMSProp算法 AdaDelta算法 Adam算法 选择标准 其他优化方法 参考链接来源 标准梯度下降法GD 随机梯度下降法(SGD)和批随机梯度下降法(BGD) 为什么不用牛顿法? 动量法 动量法用于解决局部梯度的反方向不一定是函数
相关文章
相关标签/搜索