BERT家族:TinyBERT

TinyBERT 论文:《TINYBERT:DISTILLINGBERTFORNATURALLAN-GUAGEUNDERSTANDING》微信 论文地址:https://arxiv.org/pdf/1909.10351框架 做者/机构:华科+华为诺亚方舟实验室学习 年份:2019.9编码 TinyBert经过对Bert 编码器中的Transformer进行压缩,使用两段式学习框架在精度容许范围内节
相关文章
相关标签/搜索