(11)[ICML15] Batch Norm: Accelerating Deep Network Training by Reducing Internal Covariate Shift

计划完成深度学习入门的126篇论文第十一篇,Google的Ioffe和Szegedy使用一种新的regularization方法或者说是新的initialization的方法Batch Normalization。 ABSTRACT&INTRODUCTION 摘要 因为训练过程当中各层输入的分布随前一层参数的变化而变化,使得深度神经网络的训练变得复杂。这须要较低的学习率和谨慎的参数初始化,从而下降
相关文章
相关标签/搜索