【ACL2020论文尝鲜】何时采用BERT更加有效?

来自:AI自然语言处理与知识图谱 何时采用BERT更加有效? 导    语: 有些研究表明,BERT并非全能,并非处处完胜,那么BERT何时有效?目前的预训练模型昂贵复杂,让人无福享受,本文是 ACL 2020 一篇词向量的工作,该文探究了影响词向量的两大因素:训练数据的规模和文本语言的特性,并在三种类型的词向量上面分析:BERT词向量、Glove词向量和随机词向量。这篇论文是一篇预训练模型的有效
相关文章
相关标签/搜索