Batch Normalization

本文链接:https://arxiv.org/abs/1502.03167 简介 在深度神经网络训练的过程中,当前面层的参数发生变化时,会导致后面层输入数据的分布变化,进而影响训练效果,使网络的训练变得复杂。本文提出了一种Batch Normalization方法解决这个问题,该方法可以使用较大的学习率进行学习,同时可以忽略掉dropout的作用,提高模型收敛速度,提高识别率。 Introduct
相关文章
相关标签/搜索