[AI 笔记] Batch Normalization批量归一化

[AI 笔记] BatchNormalization批量归一化 Batch Normalization 参考资料: CS231n Batch Normalization 批量归一化(Batch Normalization),用于对神经元的输入进行归一化处理,使其符合高斯分布(不一定),解决饱和问题带来的梯度消失问题。 它一般被放置在全连接层或者卷积层之后,激活函数之前。如下图所示。其中右下角的公式
相关文章
相关标签/搜索