《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》论文笔记

1. 论文思想 训练深度学习网络是相当复杂的,每个层的输入分布会在训练中随着前一层的参数变化而改变。仔细地网络初始化以及较低的学习率下会降低网络的训练速度,特别是具有饱和非线性的网络。在该论文中将该中现象称之为“internal covariate shift”,在论文中为了解决该问题提出了BN的概念,它取得的成果也会很显著: (1)网络中添加了BN层之后可以使得网络使用更高的学习率,减少对网络初
相关文章
相关标签/搜索