epoch、batch、training step(iteration)的区别

  (1)iteration:表示1次迭代(也叫training step),每次迭代更新1次网络结构的参数; (2)batch-size:1次迭代所使用的样本量; (3)epoch:1个epoch表示过了1遍训练集中的所有样本。 值得注意的是,在深度学习领域中,常用带mini-batch的随机梯度下降算法(Stochastic Gradient Descent, SGD)训练深层结构,它有一个好
相关文章
相关标签/搜索