Low-rank Compression of Neural Nets:Learning the Rank of Each Layer 阅读笔记

论文地址: paper 代码地址: code 1. 论文概述 可以通过使用低秩矩阵近似逼近每层权重的方法实现神经网络的压缩,但难点在于每层的最佳秩都是一个超参搜索的问题。针对上述问题,本片文章基于秩和矩阵元素提出了一种混合离散-连续优化函数。 本文提出了一种近似解决这个问题的算法,首先针对该问题的描述建立在减小分类网络的误差和基于秩的模型选择损失,利用秩约束网络的每层卷积。然后这个问题可以通过秩和
相关文章
相关标签/搜索