[论文解读] Deep Compression

基本介绍 《Deep Compression : Compressing Deep Neural Networks With Pruning, Trained Quantization and Huffman Coding》 是ICLR16的best paper, 其核心的想法是在不损失模型精度的情况下,将ALexNet, VGG-16等普遍使用的模型进行压缩,使此类模型移植到微型嵌入式或者移动设
相关文章
相关标签/搜索