深度残差学习的图像识别———ResNet

背景介绍 问题提出:学些更好的网络是否等同于堆叠更多的层呢?答案是否定的, 等同于堆叠更多的层呢?回答这个问题的一个障碍是梯度消失/爆炸。 当更深的网络能够开始收敛时,暴露了一个退化问题:随着网络 深度的增加,准确率达到饱和(这可能并不奇怪),然后迅速下降。 意外的是,这种下降不是由过拟合引起的,并且在适当的深度模型上添加更多的层会导致更高的训练误差。 层数过深的平原网络具有更高的训练误差 较高分
相关文章
相关标签/搜索