论文品读:Learning both Weights and Connections for Efficient Neural Networks

https://arxiv.org/abs/1506.02626v3 这是一篇关于模型压缩的15年文章,到目前为止(18年11月)有450的被引 文章介绍了一种参数剪枝(weights pruning)方法,应该算是最基础的一种方法了,直接按照参数是否大于某个阈值来判断哪些参数是重要的,哪些参数是不重要。 在不降低精度的前提下,在VGG-16上取得了13倍的参数压缩率,从138M个参数到10.8M
相关文章
相关标签/搜索