神经网络训练细节之batch normalization

在对神经网络进行训练的时候,经常涉及到的一个概念就是batch normalization,那么究竟什么是batch normalization,以及为什么在训练的时候要加入batch normalization呢?以下就是我的一些学习心得。 1、提出batch normalization的原因       (1) 我们在对某个神经网络训练完成之后,需要测试该网络,那么如果我们的训练集数据与测试集
相关文章
相关标签/搜索