译文:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

Bert: 针对语言理解双向深度transformer的预训练模型 摘要 本文介绍一种新的语言表达模型-BERT(Bidirectional Encoder Representations from Transformers).与近期语言表达模型 (Peters et al., 2018a; Radford et al., 2018)不同的是,Bert通过在所有层上调节双向上下文来预训练未标定数据
相关文章
相关标签/搜索