【deeplearning.ai笔记第二课】2.1 随机梯度下降,批量梯度下降和小批量梯度下降

批量梯度下降 (batch gradient descent) 每次梯度更新时,计算所有m个样本的梯度做梯度下降 小批量梯度下降 (mini-batch gradient descent) 每次梯度更新,计算n (n<m) 个样本的梯度做梯度下降 随机梯度下降(stochastic gradient descent) 每次梯度更新,计算1个样本的梯度做梯度下降 大多数用于深度学习的算法会采用min
相关文章
相关标签/搜索