完胜BERT!NLP预训练利器:小模型也有高精度,单个GPU就能训练

2020-03-13 12:37:59 十三 发自 凹非寺 量子位 报道 | 公众号 QbitAI 这款NLP预训练模型,你值得拥有。 它叫ELECTRA,来自谷歌AI,不仅拥有BERT的优势,效率还比它高。   ELECTRA是一种新预训练方法,它能够高效地学习如何将收集来的句子进行准确分词,也就是我们通常说的token-replacement。 有多高效? 只需要RoBERTa和XLNet四分
相关文章
相关标签/搜索