《To prune, or not to prune:exploring the efficacy of pruning for model compression》论文笔记

1. 概述 导读:论文中研究了在资源限制环境下实现较少资源消耗网络推理的两种不同模型压缩方法(结构化剪枝压缩:small-dense与非结构化剪枝压缩:large-sparse),并且提出了一种在多种模型与数据上可以直接使用的新逐渐剪枝方法,并且可以集成到训练过程中去。文中比较了剪裁之后大且稀疏(large-sparse)与小与稠密模型的精度(small-dense),这些模型涵盖了深度CNN网络
相关文章
相关标签/搜索