Batch Normalization 详解

BN是在激活层之前添加的。作用是把下一层(激活层)的输入量标准化,更容易学习到数据之中的规律。 从上图可以看出,如果没有标准化,前面遇到较大的值之后,下一层的激活函数就很难进行处理了。比如tanh,此时Wx2已经大于1,基本激活已经没有作用了,不敏感了。 Batch Normalization (BN) 就被添加在每一个全连接和激励函数之间. 从下图可以看出,进行了BN的数的分布在-1到1之间,这
相关文章
相关标签/搜索