Contextual Word Embeddings

Word Representation方法,Word2Vec, GloVe, fastText等对每个单词仅有一种表示,而通常单词的含义依赖其上下文会有所不同,而且每个单词不仅有一方面特征,而应有各方面特征如语义特征,语法特征等, 集中讨论contextual word representation,主要比较了ELMO,GPT与BERT模型。 EMLo 在EMLo中,他们使用的是一个双向的LSTM
相关文章
相关标签/搜索