完胜 BERT,谷歌最佳 NLP 预训练模型开源

2020-03-16 19:35 导语:小模型高精度,效率显著优于 MLM。 按:近日,谷歌宣布将 AI 语言模型 ELECTRA 作为 TensorFlow 之上的开源模型发布。该方法用到了一种称为替换令牌检测(RTD)的新预训练任务,使其能够在从所有输入位置学习的同时,训练双向模型。 并且,在同等计算资源的情况下,ELECTRA 的性能优于现有方法;而在参数量只有 1/30 的情况下,取得不逊
相关文章
相关标签/搜索