word2vec怎么得到词向量?

word2vec有两种模型,CBOW和Skip-gram;前者是通过context(w)[即词w的上下文]的词向量获得w最可能的词(w为各个词的概率,就能得到最可能的词),后者是相反的,通过w获得上下文context(w)。 简单理解即为如下两幅图[1]: 对于CBOW模型,输入的即为词向量,但是词向量怎么来的? 实际上,前面还有一层,如下图[2]: 前一层输入的是每个单词的one-hot编码,然
相关文章
相关标签/搜索