Incremental Network Quantization: Towards Lossless CNNs with Low-precision Weights论文

英特尔中国研究院 现有的量化压缩方法有两点不足:1.量化过程中的精度损失仍然不可忽视;2.大多数量化压缩方法只适用于处理特定的模型结构和特定类型的层,一定程度限制了泛化能力和量化压缩的性能(这里指的是很多方法对fc层的压缩比较有效,最终得到的比较大的压缩率很大一部分贡献是fc);另外还有重训练时间长等问题; INQ (Incremental network quantization)。該方法可以將
相关文章
相关标签/搜索