CNN: 1x1卷积层的精妙之处

现在各种神经网络都会用到1x1 conv,它到底起到什么作用呢?要回答这个问题,先从最经典的Inception模型说起,Figure 1是Inception-ResNet-v2的block架构图。 作用一:改变矩阵维度 block中每个sublayer的第一层都1x1 conv,它在这里的作用之一是降维,减少运算量–feature map channel数越少,卷积操作需要的计算量越小。但就像图像
相关文章
相关标签/搜索