BERT论文阅读笔记

BERT: Bidirectional Encoder Representations from Transformers BERT 是用于语言理解的预训练深度双向编码表征的 transformer结构。它被设计为通过在所有网络层中基于左右文本来预训练深度双向表征。因此通过外接一个输出层来 fine-tuned 预训练好的BERT 表征形成一个新的模型,这种做法可以将BERT运用在大量的其他任务上
相关文章
相关标签/搜索