博客园 首页 新随笔 联系 订阅 管理 Word2Vec之Skip-Gram模型实现代码详解

在NLP领域,词向量是一个非常基础的知识点,计算机是不能识别文字,所以要让计算机记住文字只能通过数字的形式,在最初所采用的是one-hot(独热)编码,简单回顾一下这种编码方式 例如:我很讨厌下雨 分词之后:我  很  讨厌  下雨 可知词表大小为4,采用one-hot编码方式则为 我:[1,0,0,0]    很:[0,1,0,0] 讨厌:[0,0,1,0] 下雨:[0,0,0,1] 这种方式可
相关文章
相关标签/搜索