【Paper】GloVe:如何从大规模语料中快速训练词向量

1. Introduction 今天学的论文是斯坦福大学 2014 年的工作《GloVe: Global Vectors for Word Representation》,在当时有两种主流的 Word Embedding 方式,一种是 LSA,创建词频矩阵,利用 SVD 分解得到词向量;另一种是 13 年提出的 Word2Vec,基于滑动窗口的浅层神经网络。前者的优点是利用了全局的统计信息(共现矩
相关文章
相关标签/搜索