NLP基础之——Word Vectors and Word Senses

参考:【NLP CS224N笔记】Lecture 2 - Word Vectors2 and Word Senses 一、word2vec 1.概述 字面理解为词到向量的方法,即word to vector,实质上word2vector是使用一层神经网络将one—hot形式的词向量映射到分布式形式的词向量。 在训练技巧上使用了负采样(negative sampling)和分层(Hierarchic
相关文章
相关标签/搜索