ICLR2020 | StructBERT : 融合语言结构的BERT模型

作者 | 程玉 审稿 | 杨喜喜 今天给大家介绍阿里巴巴达摩院在ICLR2020的一篇论文,该研究针对预训练语言模型BERT在预训练任务中忽略了语言结构的问题,作者对BERT进行扩展,通过加入语言结构到预训练任务中,其核心思想是在预训练任务中加入两项基于语言结构的任务:word-level ordering和sentence-level ordering。 1 背景 预训练语言模型是NLU(Nat
相关文章
相关标签/搜索