NLP_Task4 文本表示:从one-hot到word2vec

预备知识 Huffman树 神经概率语言模型 **输入层的输入是单词的Onehot 基于Negative Sampling 背景 语言模型 在统计自然语言处理中,语言模型指的是计算一个句子的概率模型。 传统的语言模型中词的表示是原始的、面向字符串的。两个语义相似的词的字符串可能完全不同,比如“番茄”和“西红柿”。这给所有NLP任务都带来了挑战——字符串本身无法储存语义信息。该挑战突出表现在模型的平
相关文章
相关标签/搜索