15篇论文全面概览BERT压缩方法

作者 | Mitchell A. Gordon 译者 | 孙薇 出品 | AI科技大本营(ID:rgznai100) 模型压缩可减少受训神经网络的冗余——由于几乎没有BERT或者BERT-Large模型可用于GPU及智能手机上,这一点就非常有用了。另外,内存与推理速度的提高也能节省大量成本。 本篇列出了作者所见过的BERT压缩论文,以下表格中对不同方法进行了分类。 论文1:Compressing
相关文章
相关标签/搜索