当前深度神经网络模型压缩和加速方法速览

原标题:综述论文:当前深度神经网络模型压缩和加速方法速览 选自arXiv 大型神经网络具有大量的层级与结点,因此考虑如何减少它们所需要的内存与计算量就显得极为重要,特别是对于在线学习和增量学习等实时应用。此外,近来智能可穿戴设备的流行也为研究员提供了在资源(内存、CPU、能耗和带宽等)有限的便携式设备上部署深度学习应用提供了机会。 高效的深度学习方法可以显著地影响分布式系统、嵌入式设备和用于人工智
相关文章
相关标签/搜索