BERT家族:TinyBERT

TinyBERT 论文:《TINYBERT:DISTILLINGBERTFORNATURALLAN-GUAGEUNDERSTANDING》 论文地址:https://arxiv.org/pdf/1909.10351 作者/机构:华科+华为诺亚方舟实验室 年份:2019.9 TinyBert通过对Bert 编码器中的Transformer进行压缩,使用两段式学习框架在精度允许范围内节约了计算资源和推
相关文章
相关标签/搜索