BERT家族:XL-NET

XL-Net 论文:《XLNet: Generalized Autoregressive Pretraining for Language Understanding》 论文地址:https://arxiv.org/pdf/1906.08237v1 作者/机构:CMU+google 年份:2019.6 XL-NET主要是通过改变MLM了训练的方式,来提高Bert的性能,提出了自回归(AR,auto
相关文章
相关标签/搜索