ICLR 2020 | ELECTRA:新型文本预训练模型

作者 | 叶聪敏 单位 | 厦门大学 儿童节快乐 今天介绍斯坦福大学和Google Brain团队在ICLR2020的论文,该研究提出ELECTRA语言模型,它是一种新型预训练方法,其关键点在于将预训练文本编码器作为标识符而非生成器,来处理现存语言模型的问题。 最近基于maskd langage modeling(MLM)的预训练模型,比如BERT,主要是使用[MASK]令牌替换输入序列中的部分令
相关文章
相关标签/搜索