简洁 为什么用word2vec

word embedding 所谓word embedding就是把一个词用编码的方式表示以便于feed到网络中。举个例子,最简单的one-hot编码方式。 word2vec 由于onehot不能表示词之间的关系、维度太大等等问题,需要其他编码方式。 word2vec同样也是最终目标是把一个单词编码成一个向量,只不过用的是网络训练的手段。 这个向量就linear层的输出值。 不管是skep-gra
相关文章
相关标签/搜索