深度学习模型轻量化(上)

深度学习模型轻量化(上) 移动端模型必须满足模型尺寸小、计算复杂度低、电池耗电量低、下发更新部署灵活等条件。 模型压缩和加速是两个不同的话题,有时候压缩并不一定能带来加速的效果,有时候又是相辅相成的。压缩重点在于减少网络参数量,加速则侧重在降低计算复杂度、提升并行能力等。模型压缩和加速可以从多个角度来优化。总体来看,个人认为主要分为三个层次: 算法层压缩加速。这个维度主要在算法应用层,也是大多数算
相关文章
相关标签/搜索