ELECTRA - 比BERT更快更好的预训练模型

论文:ELECTRA: Pre-training Text Encoders As Discriminators Rather Then Generators算法 本文目前在ICLR 2020盲审中,前几天有审稿人发表文章对它大夸特夸,被称为19年最佳NLP预训练模型,另外,在上周的智源北京人工智能大会上,Christopher Manning对这个工做也作了详细介绍,那么,已经不用匿名了,这就是
相关文章
相关标签/搜索