【简单理解】BERT

【简单理解】BERT 原文链接:BERT: Pre-training of Deep Bidirectional Transformers forLanguage Understanding 1.简单介绍BERT 一个训练好的【双向Transformer编码器栈】。可以训练出具有上下文关系的【语境化词向量】,是一个【句子级的语言模型】。 作为一种pre-train方法,可以直接获得一整个句子的唯一
相关文章
相关标签/搜索