深度学习中的Batch normalization

批规范化(Batch normalization)是深度学习中经常见到的一种训练trick,指在采用梯度下降法训练DNN时,对网络层中每个mini-batch的数据进行归一化,使其均值变为0,方差变为1,其主要作用是缓解DNN训练中的梯度消失/爆炸现象,加快模型的训练速度。  下面是作者原论文中的算法介绍:  关于BN的两点理解:  1.为什么它能缓解DNN训练中的梯度消失/爆炸现象?  关于梯度
相关文章
相关标签/搜索