深度学习笔记(二)(2)优化算法

深度学习笔记(二)(2)优化算法 2.1 Mini-batch 梯度下降(Mini-batch gradient descent) 2.2 理解 mini-batch 梯度下降法(Understanding mini-batch gradient descent) 你需要决定的变量之一是 mini-batch 的大小,𝑚就是训练集的大小,极端情况下: 如果 mini-batch 的大小等于𝑚,
相关文章
相关标签/搜索