Pruning Convolutional Neural Networks For Resource Efficient Inference

论文地址:https://arxiv.org/abs/1611.06440v2 英伟达出品的模型剪枝论文,NVIDIA Transfer Learning Toolkit就是基于这篇论文进行实现的? 0 摘要 我们提出了一种新的对神经网络中卷积核进行剪枝的算法以实现高效推理。我们将基于贪婪标准的修剪与通过反向传播的微调交错 - 实现了一种高效的的过程,在修剪后的网络中保持了良好的泛化能力。我们提出
相关文章
相关标签/搜索