BERT家族:XL-NET

XL-Net 论文:《XLNet: Generalized Autoregressive Pretraining for Language Understanding》缓存 论文地址:https://arxiv.org/pdf/1906.08237v1微信 做者/机构:CMU+google性能 年份:2019.6google XL-NET主要是经过改变MLM了训练的方式,来提升Bert的性能,提出
相关文章
相关标签/搜索