NLP 再获重要进展,霸屏的 BERT 到底是个啥?

访问flyai.club,一键创建你的人工智能项目     这两天,被这篇BERT的paper刷屏了,这个横扫11项记录,"阅读理解超过人类"的模型到底是个啥?   BERT的全称是Bidirectional Encoder Representation from Transformers,即Transformer的双向编码表示来改进基于架构微调的方法。是一个语言表征模型(language rep
相关文章
相关标签/搜索