如何理解卷积神经网络中的1*1卷积

咱们都知道,卷积核的做用在于特征的抽取,越是大的卷积核尺寸就意味着更大的感觉野,固然随之而来的是更多的参数。早在1998年,LeCun大神发布的LetNet-5模型中就会出,图像空域内具备局部相关性,卷积的过程是对局部相关性的一种抽取。 可是在学习卷积神经网络的过程当中,咱们经常会看到一股清流般的存在—1*1的卷积!web 好比在残差网络的直连里: 网络 残差网络的Bootleneck残差模块里:
相关文章
相关标签/搜索