深度学习模型压缩与优化加速(Model Compression and Acceleration Overview)

1. 简介 深度学习(Deep Learning)因其计算复杂度或参数冗余,在一些场景和设备上限制了相应的模型部署,需要借助模型压缩、优化加速、异构计算等方法突破瓶颈。 模型压缩算法能够有效降低参数冗余,从而减少存储占用、通信带宽和计算复杂度,有助于深度学习的应用部署,具体可划分为如下几种方法(后续重点介绍剪枝与量化): 线性或非线性量化:1/2bits, int8 和 fp16等; 结构或非结构
相关文章
相关标签/搜索