Pruning convolutional neural networks for resource efficent inference

这是篇2017年ICLR的会议,文章提出了一种基于泰勒展开的网络剪枝方法。文章认为,这里一类的剪枝方法一般分为三类: 一个已经训练好的网络 基于一定的准则在修剪和微调反复 适时地停止   所以,这个修剪的“准则”就十分的重要,文章列出了一些以往的准则: Minimun weight:训练时加入L1或L2正则化,并修剪权值小于某一阈值的权重 Activation:修剪经激活层后与small acti
相关文章
相关标签/搜索