batch size 对神经网络训练的影响

先说结论:batch size并不是越大越好,也不是越小越好 batch size直观上决定了一次喂给神经网络的样本数 引用怎么选取训练神经网络时的Batch size?中的一张图片说明batch size的影响: 如果使用 Gradient Descent,那么每一步的更新都会向类似于黄线那种,同时满足 6 个样本的 去贴近 (不是一步到位,而是通过迭代一点点更新变形 如果使用 Stochast
相关文章
相关标签/搜索