深度学习中batch_normalization的理解

下面是自己对神经网络中batch_normalization(批标准特征化)的一个小结,很容易理解: 1.让每一层神经网络处理的数据更加具有规律性,从而神经网络也可以更加容易学习到数据中的规律。 2.对于一些激励函数,比如tan,激励函数只对一部分区间的数据比较敏感,其他地方的数据变化,做出的反应不大。 比如下面一个图: 数据只对图中红色区域比较敏感,而batch)normalization能把数
相关文章
相关标签/搜索