【论文笔记electra】ELECTRA: PRE-TRAINING TEXT ENCODERS AS DISCRIMINATORS RATHER THAN GENERATORS

代码: https://huggingface.co/transformers/model_doc/electra.html   ABSTRACT 论文提出了一种高效的基于抽样的预训练任务——替换标记检测。对于一些可以被替换的tokens,用一个小生成网络(generator network )抽样出token进行替换。接着,作者没有用模型从原始语料库中预测这些被替换的词,而是训练了一个判别模型(
相关文章
相关标签/搜索