深度学习模型压缩与加速方法

大型神经网络具有大量的层级与节点,因此考虑如何减少他们所需要的内存与计算量就显得极为重要,特别对于在线学习和增量学习等实时应用。此外,近来只能可穿戴设备的流行也为研究院提供了在资源(内存,cpu,能耗和带宽等)有限的便携式设备上部署深度学习应用提供了机会。比如resnet50,他有50层卷积网络,超过95M的存储需求和计算每一张图片所需要的浮点数乘法时间。如果剪枝一些冗余的权重后,其大概能节约75
相关文章
相关标签/搜索