深度学习笔记(2):2.1|2.2 mini-batch梯度下降法及其理解

2.1   mini-batch梯度下降法 第二章我们开始学习优化算法,以便于更快地训练神经网络。首先介绍mini-batch梯度下降法,如下图所示: 相比于mini-batch梯度下降法,我们大家更熟悉的应该是batch梯度下降法,即梯度下降法。那batch梯度下降法和mini-batch梯度下降法有什么区别吗?其实他俩的区别就存在于名字中,一个是batch,即进行梯度下降训练时,使用全部的训练
相关文章
相关标签/搜索