二、AI教程学习笔记 | 神经网络优化(二)

目录   1、mini-batch 2、如何为mini-batch选择合理的大小 3、指数加权平均 4、动量梯度下降 5、RMSprop 6、Adam优化算法 7、学习率衰减 8、局部最优 1、mini-batch 2、如何为mini-batch选择合理的大小 3、指数加权平均 在理解动量梯度下降法之前,我们首先要了解指数加权平均数,这是动量梯度下降法的核心。那么,什么是指数加权平均数呢,我们这里
相关文章
相关标签/搜索