当前深度神经网络模型压缩和加速方法速览

“本文介绍的论文全面概述了深度神经网络的压缩方法,主要可分为参数修剪与共享、低秩分解、迁移/压缩卷积滤波器和知识精炼,本论文对每一类方法的性能、相关应用、优点和缺陷等进行独到的分析。” 大型神经网络具备大量的层级与结点,所以考虑如何减小它们所须要的内存与计算量就显得极为重要,特别是对于在线学习和增量学习等实时应用。此外,近来智能可穿戴设备的流行也为研究员提供了在资源(内存、CPU、能耗和带宽等)有
相关文章
相关标签/搜索