神经网络压缩综述

1.研究背景 对模型预测精度无明显影响 压缩模型的参数数量、深度来下降模型空间复杂度 全链接层参数多,模型大小由全链接层主导 不显著提升训练时间复杂度,下降预测时间复杂度(计算量) 卷积层计算量大,计算代价由卷积操做主导 2.方法 2.1.更精细模型的设计 Aggregated Residual Transformations for Deep Neural Networks DenseNet H
相关文章
相关标签/搜索