【inv2】Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

基本情况 这是一篇cv.LG2015的文章,所属领域为computer vision. Abstract 在训练由于前面层的参数的变化,会导致本层输入分布的变化,因此导致训练一个DNN十分复杂,我们不得不降低训练速度和小心的初始化.这种现象被成为internal covariate shift. 解决上述问题,通常采用的方法是normalize输入层.我们的方法力图使规范化成为模型架构的一部分,并
相关文章
相关标签/搜索