批规范化 Batch Normalization

batch normalization 就是对数据作批规范化,使得数据知足均值为0,方差为1的正太分布。其主要做用是缓解DNN训练中的梯度消失/爆炸现象,加快模型的训练速度。BN在2015年提出,论文:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shiftpython
相关文章
相关标签/搜索