ThiNet: A Filter Level Pruning Method for Deep Neural Network Compression笔记

前言 致力于滤波器的剪枝,论文的方法不改变原始网络的结构。论文的方法是基于下一层的统计信息来进行剪枝,这是区别已有方法的。 VGG-16上可以减少3.31FLOPs和16.63倍的压缩,top-5的准确率只下降0.52%。在ResNet-50上可以降低超过一半的参数量和FLOPs,top-5的准确率只降低1%。   如上图所示,在虚线框中找到那些弱通道(weak channels)和他们对应的滤波
相关文章
相关标签/搜索