Bert论文翻译

Abstract 我们介绍了一种新的语言表示模型,称为双向编码器表示。不同于最近的语言表示模型,BERT旨在通过对所有层的左右上下文进行联合调节,从未标记文本中预先训练深层双向表示。因此,预先训练好的BERT模型只需一个额外的输出层就可以进行微调,从而为广泛的任务(如问题回答和语言推理)创建最先进的模型,而无需对特定任务的体系结构进行实质性修改。 BERT概念简单,经验丰富。它在11项自然语言处理
相关文章
相关标签/搜索