CS224n笔记:contextual word representation

之前的Word Representation方法,Word2Vec, GloVe, fastText等对每个单词仅有一种表示,而通常单词的含义依赖其上下文会有所不同,而且每个单词不仅有一方面特征,而应有各方面特征如语义特征,语法特征等,这一讲集中讨论contextual word representation,主要比较了ELMO,GPT与BERT模型。 Elmo L层forward LSTM每层会
相关文章
相关标签/搜索