神经网络模型压缩瞎总结

模型压缩整体思路离不开两个方向,一是以剪枝,量化编码为表明的方法。将权重低于某一阈值的权重减去,即设置为0,配合上L1正则化,很容易将模型稀疏,但剪枝操做只是把小权重设置为0,网络变得稀疏,要想加快网络运算,须要设定必定的算法,跳过这些0值的运算,这部分便是稀疏矩阵的高效运算内容了。模型压缩的另外一思路就是在网络的通道上进行压缩,以SqueezeNet,MobileNet,ShuffleNet等为
相关文章
相关标签/搜索