论文学习《A Neural Probabilistic Language Model》

论文地址:A Neural Probabilistic Language Model 本文为了解决one-hot表示可能带来的维数灾难问题,提出了分布式表示,这种方法允许每一个训练语句给模型提供关于语义相邻句子的指数级别数量的信息。 作者基于n-gram模型,通过使用语料对神经网络进行训练,最大化上文的n个词语对当前词语的预测。该模型同时学到了(1)每个单词的分布式表示和(2)单词序列的概率分布函
相关文章
相关标签/搜索