【cs224n-11】Contextual Word Representations: BERT

     词嵌入是NLP深度学习的基础,以Word2Vec、Glove和FastText为代表的静态词向量为文本在神经网络中的表示提供了一种强有力的工具。然而这种静态的词嵌入存在的问题是,以上下文无关的方式应用,对每个单词仅有一种表示,而通常单词的含义依赖于其上下文会有所不同,而且每个单词不仅有一方面特征,而应有各方面特征如语义特征,语法特征等。解决的方式是,在文本语料库上训练上下文表示。    
相关文章
相关标签/搜索