为什么使用卷积层替代CNN末尾的全连接层

CNN网络的经典结构是: 输入层—>(卷积层+—>池化层?)+—>全连接层+  (其中+表示至少匹配1次,?表示匹配0次或1次) 全卷积神经网络Fully Convolutional Network (FCN) 全卷积神经网络即把CNN网络最后的全连接层替换为卷积层。为什么这么做?换句话说这样会带来什么好处呢? 首先,说一下卷积层和全连接层的区别:卷积层为局部连接;而全连接层则使用图像的全局信息。
相关文章
相关标签/搜索