【BERT系列】——一文看懂BERT

1. 什么是BERT BERT 全名 Bidirection Encoder Representations from Transformers,是谷歌于2018年发布的NLP领域的 预训练模型,一经发布就霸屏了NLP领域的相关新闻,味道是真香。果不其然,2019年出现了不少BERT相关的论文和模型,本文旨在对 BERT 模型进行一个总结。web 首先从名字就能够看出,BERT模型是使用双向Tra
相关文章
相关标签/搜索