Pruning Filters For Efficient ConvNets阅读笔记

问题的提出 现在,神经网络模型在很多领域都展现了强大的性能(如:物体分类,目标识别,物体分割,自然语言处理等)。随着模型性能的提高,网络结构变得越来越深,参数变得越来越多,这就使得保存模型所需要的内存变多,模型进行推理所需要的计算资源与计算时间也变多。但是,在一些嵌入式设备中,内存与计算资源比较匮乏,对系统的实时性要求较高,这就需要对训练好的网络模型进行剪枝,降低保存模型所需要的内存,同时减少模型
相关文章
相关标签/搜索