神经网络中的BN层

BN层 BN,全称Batch Normalization(批规范化),是2015年提出的一种方法,在进行深度网络训练时,大都会采取这种算法。算法过程如下: 简单来说就是对上一层输出的数据进行规范化。 优势: 加快网络的训练和收敛的速度,即我们可以使用较大的学习率 控制梯度爆炸防止梯度消失 防止过拟合 1.加快训练速度 在深度神经网络中中,如果把每层的数据都在转换在均值为零,方差为1的状态下,这样每
相关文章
相关标签/搜索