看mnist数据集上其余人的CNN模型时了解到了Batch Normalization 这种操做。效果还不错,至少对于训练速度提高了不少。html
batch normalization的作法是把数据转换为0均值和单位方差网络
2. How to Batch Normalize?
怎样学BN的参数在此就不赘述了,就是经典的chain rule:app
3. Where to use BN?
BN能够应用于网络中任意的activation set。文中还特别指出在CNN中,BN应做用在非线性映射前,即对作规范化。另外对CNN的“权值共享”策略,BN还有其对应的作法(详见文中3.2节)。dom
4. Why BN?
好了,如今才是重头戏--为何要用BN?BN work的缘由是什么?
说到底,BN的提出仍是为了克服深度神经网络难以训练的弊病。其实BN背后的insight很是简单,只是在文章中被Google复杂化了。
首先来讲说“Internal Covariate Shift”。文章的title除了BN这样一个关键词,还有一个即是“ICS”。你们都知道在统计机器学习中的一个经典假设是“源空间(source domain)和目标空间(target domain)的数据分布(distribution)是一致的”。若是不一致,那么就出现了新的机器学习问题,如,transfer learning/domain adaptation等。而covariate shift就是分布不一致假设之下的一个分支问题,它是指源空间和目标空间的条件几率是一致的,可是其边缘几率不一样,即:对全部,
,可是
. 你们细想便会发现,的确,对于神经网络的各层输出,因为它们通过了层内操做做用,其分布显然与各层对应的输入信号分布不一样,并且差别会随着网络深度增大而增大,但是它们所能“指示”的样本标记(label)仍然是不变的,这便符合了covariate shift的定义。因为是对层间信号的分析,也便是“internal”的来由。机器学习
那BN究竟是什么原理呢?说到底仍是为了防止“梯度弥散”。关于梯度弥散,你们都知道一个简单的栗子:。在BN中,是经过将activation规范为均值和方差一致的手段使得本来会减少的activation的scale变大。能够说是一种更有效的local response normalization方法(见4.2.1节)。学习
5. When to use BN?
OK,说完BN的优点,天然能够知道何时用BN比较好。例如,在神经网络训练时遇到收敛速度很慢,或梯度爆炸等没法训练的情况时能够尝试BN来解决。另外,在通常使用状况下也能够加入BN来加快训练速度,提升模型精度。spa
参考资料:.net
https://blog.csdn.net/shuzfan/article/details/50723877scala
https://www.zhihu.com/question/38102762orm
https://arxiv.org/pdf/1502.03167.pdf