NLP 各类word-embedding

Word-Embedding One-hot Encoding 将N个单词转为长度为N的向量,如果是该单词,该位就置为1 优点:稀疏,各维度都是独立的,也就是各个单词都是独立的 Bag-of-Words(BoW) Model【词袋模型】 把一个句子/文档中的单词数进行统计 每个文档都转换为<word,count>map对 文档相似度: cosine euclidean distance dot-p
相关文章
相关标签/搜索