word2vec详解(一)

面经之word2vec篇(一) 前篇 本来以为自己word2vec掌握的很好,面试的时候回答的一团糟…借此机会,结合面试提问,再来复习一遍word2vec吧,面试给自己上了一节很重要的课… 本篇文章主要是讲解CBOW以及skip-gram模型 1.为什么需要word embedding 首先使用one-hot的时候,可能会导致维度爆炸,其次,使用one-hot的时候,所有的词之间的距离相同,而实际
相关文章
相关标签/搜索