深度学习中的epoch、 iteration、batchsize和dropout以及常见名词的含义

1.batchsize: 批大小。在深度学习中,一般采用*SGD(随机梯度下降法)*训练,即每次训练在训练集中取batchsize个样本训练; 2.iteration: 1个iteration等于使用batchsize个样本训练一次; 3.epoch: 1个epoch等于使用训练集中的全部样本训练一次; 举个例子,训练集有1000个样本,batchsize=10,那么: 训练完整个样本集需要: 1
相关文章
相关标签/搜索