深度学习之Batch归一化

前言            以下内容是个人学习之后的感悟,转载请注明出处~     Batch归一化   在神经网络中,我们常常会遇到梯度消失的情况,比如下图中的sigmod激活函数,当离零点很远时,梯度基本为0。为了 解决这个问题,我们可以采用Batch归一化。                                                    通过BN法,我们将每层的激活值都
相关文章
相关标签/搜索