pytorch 与 BatchNormalization

BatchNormallization是神经网络中的一个正则化技术,能够加速网络的收敛,而且在必定程度上解决深度网络“梯度弥散”的问题。它本是数据预处理的一种方法,google的研究人员将它应用在了神经网络中。论文地址:https://arxiv.org/abs/1502.03167 html 理论 pytorch batch normalization: http://pytorch.org/d
相关文章
相关标签/搜索