batch-norm

当下在训练神经网络以及二值化神经网络的时候,为了不影响数据分布,获得更好的性能。通常会在cnn之间加入batch-norm. 那么batch-norm究竟是怎么影响性能的呢? 【深度学习】批归一化(Batch Normalization) BN是由Google于2015年提出,这是一个深度神经网络训练的技巧,它不仅可以加快了模型的收敛速度,而且更重要的是在一定程度缓解了深层网络中“梯度弥散”的问题
相关文章
相关标签/搜索