文献笔记|【文本表征】BERT

论文信息: 论文题目:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 论文发表时间:2018年10月11日 机构:Google AIcss 简介 文献解决的问题:提出一个语言表征的模型,叫BERT(Bidirectional Encoder Representations from T
相关文章
相关标签/搜索