深度学习学习笔记(三)

(一)批量归一化和残差网络 批量归一化(BatchNormalization) 对输入的标准化(浅层模型) 处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。 标准化处理输入数据使各个特征的分布相近 批量归一化(深度模型) 利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。 可分别在全连接层,卷积层,预测时做批量归一化。 残差网络(
相关文章
相关标签/搜索