ResNet、Inception、Xception笔记

ResNet:残差网络模块 众所周知,深度神经网络的层数越增加,越容易造成梯度消散问题,而且容易产生过拟合。因此ResNet的作者提出这样的一种假设:如果我们不直接学习x到H(x)的映射关系,而是学习两者的差异,也就是残差(residual),上图用F(x)表示,然后需要计算H(x)时,将残差加到输入上即可,即学习F(x)+x。 ResNet的每一个模块(block),都由一系列层和一个捷径(sh
相关文章
相关标签/搜索