[NLP论文阅读] Word Embedding based on Fixed-Size Ordinally Forgetting Encoding

论文原文:Word Embeddings based on Fixed-Size Ordinally Forgetting Encoding 引言 EMNLP刚刚结束,在浏览accepted paper后,选择了几篇作为近期的论文阅读。之前一直看的都是句子建模的文章,这次换了换口味,看看词向量建模的最近工作。通读全文下来,这是一篇组合了前人的方法利用单词的上下文(context)来学习词向量的文章
相关文章
相关标签/搜索