【Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huff】论文笔记

追随Song Han大神的第二篇网络压缩论文(ICLR’16),论文链接:https://arxiv.org/abs/1510.00149 这篇论文是【Learning both Weights and Connections for Efficient Neural Networks】的升级版 效果: 大概能实现35-49倍的压缩。 在ImageNet数据集上,将AlexNet所需的存储量从24
相关文章
相关标签/搜索