闲话模型压缩之量化(Quantization)篇

1. 前言 这些年来,深度学习在众多领域亮眼的表现使其成为了现在机器学习的主流方向,但其巨大的计算量仍为人诟病。尤为是近几年,随着端设备算力加强,业界涌现出愈来愈多基于深度神经网络的智能应用。为了弥补算力需求与供给的鸿沟,近几年来模型压缩成为了业界的热点之一。模型压缩又可细分为多个子方向。以前在《浅谈端上智能之计算优化》中有过一些简单的论述,同时在《闲话模型压缩之网络剪枝(Network Prun
相关文章
相关标签/搜索