论文笔记《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》

Abstract 介绍了一种新的语言表示模型BERT,它表明Transformers的双向编码器表示。与最近的语言表达模型不一样,BERT是预先训练深层双向表示,经过联合调节全部层中左右的上下文。所以,能够经过一个额外的输出层对预训练的BERT表示进行微调,以建立适用于各类任务的最新模型,如回答问题和语言推理,而无需对特定于任务的体系结构进行实质性修改。html BERT概念简单,经验丰富。它在1
相关文章
相关标签/搜索