自然语言处理NLP——从发展历程简述word2vector好在哪里?

word2vec是极简主义的谷歌公司开发出来的一套工具,主要问题是解决文本词的预测问题,即给定上下文,得到该位置最大可能的结果。 在此之前有很多功能类似的方法,比如统计模型中的Ngram模型。 但是这个模型存在很多问题。 首先 一阶模型忽略了词与词之间的顺序关系,本质上与向量空间模型,没什么区别。 而三阶以上的模型,首先计算量太大,其次,段落与段落之间,句子与句子之间一些词语也会共现,对于整体的效
相关文章
相关标签/搜索