模型压缩之Learning Efficient Convolutional Networks through Network Slimming

1. 摘要 在许多现实应用中,深度神经网络的部署由于其高额的计算成本变得很困难。在这篇论文中,我们提出了一种新颖的CNNs学习方案,它同时满足: 减小模型大小; 减少运行时的内存占用; 在不影响精度的同时,降低计算操作数; 利用通道稀疏化这样一个简单但却有效的方法,上面的条件很容易获得。不同于许多已经存在的方法,我们的方法可以直接应用到现代CNN网络架构中,在训练过程引入最小的花销,而且不需要其他
相关文章
相关标签/搜索