Batch Normalization原理总结

Batch Normalization 是Google于2015年提出的一种归一化方法。 BN带来以下优点: 加速训练过程; 可以使用较大的学习率; 允许在深层网络中使用sigmoid这种易导致梯度消失的激活函数; 具有轻微地正则化效果,以此可以降低dropout的使用。 ICS(Internal Covariate Shift) 我们知道在网络训练过程中,随着上一层参数的改变,下一层输入的分布也
相关文章
相关标签/搜索