对 Batch Normalization论文的理解

Batch Normalization是在inception V2中提到的,是一种非常好的正则化方法,它使训练速度增加了许多,并且去除了dropout。 Abstract: 在训练过程中,每层的输入分布会随着前一层参数的变化而变化,这种分布的改变被称为Internal Covariate Shift。所以这会需要更低的学习率和谨慎的参数初始化,从而导致训练速度的变慢。解决的方法就是对每层的输入都做
相关文章
相关标签/搜索