卷积神经网络中的1*1卷积

我们都知道,卷积核的作用在于特征的抽取,越是大的卷积核尺寸就意味着更大的感受野,当然随之而来的是更多的参数。早在1998年,LeCun大神发布的LetNet-5模型中就会出,图像空域内具有局部相关性,卷积的过程是对局部相关性的一种抽取。  但是在学习卷积神经网络的过程中,我们常常会看到一股清流般的存在—1*1的卷积! 比如在残差网络的直连里:  残差网络的Bootleneck残差模块里:  在Go
相关文章
相关标签/搜索