自然语言处理(NLP): 14 BERT上下文表示和其他预训练语言模型

预训练语言模型,称为BERT,是Bidirectional Encoder Representations from Transformers 的缩写。和ELMo或者OpenAI-GPT不同,BERT的预训练是同时考虑左边和右边上下文的双向表示。将预训练好的BERT表示应用到各个任务时只需要微调最后一层就能达到最佳效果。 BERT的原理非常简单但是应用效果非常好。在十一个NLP任务上达到新的最佳效
相关文章
相关标签/搜索