Bert:论文阅读-BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

摘要:我们引入了一种名为BERT的语言表示模型,它代表Transformers的双向编码器表示(Bidirectional Encoder Representations)。与最近(recent)的语言表示模型(Peters et al.,2018; Radford et al.,2018)不同,BERT旨在(is designed to)通过联合调节(jointly conditioning)所
相关文章
相关标签/搜索