深度学习模型压缩(量化、剪枝、轻量化结构、batch-normalization融合)

“目前在深度学习领域分类两个派别,一派为学院派,研究强大、复杂的模型网络和实验方法,为了追求更高的性能;另外一派为工程派,旨在将算法更稳定、高效的落地在硬件平台上,效率是其追求的目标。复杂的模型当然具备更好的性能,可是高额的存储空间、计算资源消耗是使其难以有效的应用在各硬件平台上的重要缘由。因此,卷积神经网络日益增加的深度和尺寸为深度学习在移动端的部署带来了巨大的挑战,深度学习模型压缩与加速成为了
相关文章
相关标签/搜索