[动态卷积]--Dynamic Convolution:Attention over Convolution Kernels

文章的方法并没有在ResNet等大网络上测试,我觉得最大的问题就是参数量3倍、4倍的涨幅,而且存在训练困难的问题。因为这些问题,没有继续看下去。 摘要: 轻量级卷积神经网络(CNNs)由于其较低的计算预算限制了CNNs的深度(卷积层的数量)和宽度(通道的数量),导致其性能下降,从而限制了其表示能力。为了解决这个问题,我们提出了动态卷积,一种新的设计,在不增加网络深度或宽度的情况下增加模型的复杂性。
相关文章
相关标签/搜索