word2Vec学习

Word2Vec模型是Google公司在2013年开源的一种将词语转化为向量表示的模型。 word2vec作为神经概率语言模型的输入,其本身其实是神经概率模型的副产品,是为了通过神经网络学习某个语言模型而产生的中间结果。具体来说,“某个语言模型”指的是“CBOW”和“Skip-gram”。具体学习过程会用到两个降低复杂度的近似方法——Hierarchical Softmax或Negative Sa
相关文章
相关标签/搜索