How does batch normalization help optimization,Bacth Normalization的原理

Bacth Normalization出现背景 深度神经网络的“深”意味着性能强,但同时也意味着训练难:“梯度消失”,“梯度爆炸”等问题难以解决。人们把这种问题的出现归咎于internal covariate shift(内部协变量变化)。为了解决这个所谓的ICS,2015年谷歌的Sergey Ioffe,Christian Szegedy(Batch Normalization: Acceler
相关文章
相关标签/搜索