如何理解RNN中的Batch_size?

对于Batch_size肯定都不陌生,是机器学习中的一个重要参数 多数时候使用Batch的训练效果会比设置Batch_size=1的训练效果要好。 通俗的理解一下,Batch_size=126时模型一次看了126个样本再来决定梯度下降往哪个方向降,而Batch_size=1时,模型进行了126次横冲直撞的梯度下降,单样本更新参数的随机性太大,显然可以看出使用Batch的模型效果会更好。 同时CNN
相关文章
相关标签/搜索